Rilascio 6.2.0 di Amazon EMR - Amazon EMR

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Rilascio 6.2.0 di Amazon EMR

Versioni dell'applicazione 6.2.0

In questa versione sono supportate le seguenti applicazioni: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hudi, Hue, JupyterEnterpriseGateway, JupyterHub, Livy, MXNet, Oozie, Phoenix, Pig, Presto, PrestoSQL, Spark, Sqoop, TensorFlow, Tez, Zeppelin, e ZooKeeper.

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:

Informazioni sulla versione dell'applicazione
emr-6.2.0 emr-6.1.1 emr-6.1.0 emr-6.0.1
AWS SDK per Java 1.11.8801,11,8281,11,8281,11,711
Python 2.7, 3.72,7, 3,72,7, 3,72,7, 3,7
Scala 2,12,102,12,102,12,102,12,10
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.11.21.11.01.11.0 -
Ganglia3.7.23.7.23.7.23.7.2
HBase2.2.6-amzn-02.2.52.2.52.2.3
HCatalog3.1.23.1.23.1.23.1.2
Hadoop3.2.13.2.13.2.13.2.1
Hive3.1.23.1.23.1.23.1.2
Hudi0.6.0-amzn-10.5.2-incubating-amzn-20.5.2-incubating-amzn-20.5.0-incubating-amzn-1
Hue4.8.04,7,14,7,14.4.0
Iceberg - - - -
JupyterEnterpriseGateway2.1.0 - - -
JupyterHub1.1.01.1.01.1.01.0.0
Livy0.7.00.7.00.7.00,6,0
MXNet1.7.01.6.01.6.01.5.1
Mahout - - - -
Oozie5.2.05.2.05.2.05.1.0
Phoenix5.0.05.0.05.0.05.0.0
Pig0.17.00.17.00.17.0 -
Presto0,238,30.2320.2320.230
Spark3.0.13.0.03.0.02.4.4
Sqoop1.4.71.4.71.4.7 -
TensorFlow2.3.12.1.02.1.01.14.0
Tez0.9.20.9.20.9.20.9.2
Trino (PrestoSQL)343338338 -
Zeppelin0.9.00.9.00.9.00.9.0
ZooKeeper3.4.143.4.143.4.143.4.14

Note del rilascio 6.2.0

Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 6.2.0. Le modifiche sono relative alla versione 6.1.0.

Data del rilascio iniziale: 9 dicembre 2020

Ultimo aggiornamento: 4 ottobre 2021

Applicazioni supportate
  • AWS SDK for Java versione 1.11.828

  • emr-record-server versione 1.7.0

  • Flink versione 1.11.2

  • Ganglia versione 3.7.2

  • Hadoop versione 3.2.1-amzn-1

  • HBase versione 2.2.6-amzn-0

  • HBase-operator-tools 1.0.0

  • HCatalog versione 3.1.2-amzn-0

  • Hive versione 3.1.2-amzn-3

  • Hudi versione 0.6.0-amzn-1

  • Hue versione 4.8.0

  • JupyterHub versione 1.1.0

  • Livy versione 0.7.0

  • MXNet versione 1.7.0

  • Oozie versione 5.2.0

  • Phoenix versione 5.0.0

  • Pig versione 0.17.0

  • Presto versione 0.238.3-amzn-1

  • PrestoSQL versione 343

  • Spark versione 3.0.1-amzn-0

  • spark-rapids 0.2.0

  • TensorFlow versione 2.3.1

  • Zeppelin versione 0.9.0-preview1

  • Zookeeper versione 3.4.14

  • Connettori e driver: DynamoDB Connector 4.16.0

Nuove funzionalità
  • HBase: è stata rimossa la ridenominazione in fase di commit e aggiunto il tracciamento persistente HFile . Consulta Persistent HFile Tracking nella Amazon EMR Release Guide.

  • HBase: Backported Crea una configurazione che impone la memorizzazione nella cache dei blocchi durante la compattazione.

  • PrestoDB: miglioramenti all'eliminazione delle partizioni dinamiche. Join Reorder basato su regole funziona su dati non partizionati.

  • Policy gestite con ambito: per allinearsi alle AWS best practice, Amazon EMR ha introdotto policy gestite predefinite con ambito EMR v2 in sostituzione delle politiche che verranno obsolete. Consulta Policy gestite di Amazon EMR.

  • Stato del supporto di Instance Metadata Service (IMDS) V2: per Amazon EMR 6.2 o versioni successive, i componenti di Amazon EMR vengono utilizzati per tutte le chiamate IMDS. IMDSv2 Per le chiamate IMDS nel codice dell'applicazione, puoi utilizzare entrambi o configurare l'IMDS in modo che IMDSv1 venga utilizzato IMDSv2 solo per una maggiore sicurezza. IMDSv2 Se si disattiva IMDSv1 nelle versioni precedenti di Amazon EMR 6.x, si verifica un errore di avvio del cluster.

Modifiche, miglioramenti e problemi risolti
  • Questa versione risolve i problemi di dimensionamento di Amazon EMR nei casi in cui non riesce ad aumentare/ridurre correttamente un cluster o causa errori dell'applicazione.

  • È stato risolto il problema per cui le richieste di dimensionamento avevano esito negativo per i cluster di grandi dimensioni e ad alto utilizzo quando i daemon su cluster di Amazon EMR eseguivano attività di controllo dell'integrità, come la raccolta dello stato del nodo YARN e dello stato del nodo HDFS. Ciò si verificava perché i daemon su cluster non erano in grado di comunicare i dati sullo stato di integrità di un nodo ai componenti interni di Amazon EMR.

  • I daemon su cluster di EMR sono stati migliorati per monitorare correttamente gli stati dei nodi quando gli indirizzi IP vengono riutilizzati per migliorare l'affidabilità durante le operazioni di dimensionamento.

  • SPARK-29683. È stato risolto il problema per cui si verificavano errori di processo durante la riduzione del cluster poiché Spark presupponeva che tutti i nodi disponibili fossero negati.

  • YARN-9011. È stato risolto il problema per cui si verificavano errori di processo a causa di una race condition nella disattivazione di YARN quando il cluster tentava di aumentare o ridursi.

  • È stato risolto il problema relativo agli errori di fase o processo durante il dimensionamento del cluster garantendo che gli stati dei nodi siano sempre coerenti tra i daemon su cluster di Amazon EMR e YARN/HDFS.

  • È stato risolto il problema a causa del quale le operazioni del cluster, come la riduzione e l'invio di fasi, non riuscivano per i cluster Amazon EMR abilitati con autenticazione Kerberos. Questo era dovuto al fatto che il daemon su cluster di Amazon EMR non rinnovava il ticket di Kerberos, necessario per comunicare in modo sicuro con HDFS/YARN in esecuzione sul nodo primario.

  • Le versioni più recenti di Amazon EMR risolvono il problema con un limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti di Amazon EMR. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono ora una correzione permanente con un'impostazione "Max open files" (Max. file aperti).

  • Spark: miglioramenti delle prestazioni del runtime Spark.

Problemi noti
  • Amazon EMR 6.2 ha autorizzazioni errate impostate sulla directory the /etc/cron.d/libinstance-controller-java file in EMR 6.2.0. Permissions on the file are 645 (-rw-r--r-x), when they should be 644 (-rw-r--r--). As a result, Amazon EMR version 6.2 does not log instance-state logs, and the /emr/instance -logs vuota. Questo problema è stato risolto in Amazon EMR 6.3.0 e successive.

    Per risolvere il problema, esegui il seguente script come operazione di bootstrap all'avvio del cluster.

    #!/bin/bash sudo chmod 644 /etc/cron.d/libinstance-controller-java
  • Per i cluster della sottorete privata di Amazon EMR 6.2.0 e 6.3.0 non è possibile accedere all'interfaccia utente Web di Ganglia. Verrà visualizzato l'errore "access denied (403) (accesso negato (403))". Altri siti Web UIs, come Spark, Hue, Zeppelin, Livy e JupyterHub Tez, funzionano normalmente. Anche l'accesso all'interfaccia utente Web di Ganglia sui cluster della sottorete pubblica funziona normalmente. Per risolvere il problema, riavvia il servizio httpd sul nodo primario con sudo systemctl restart httpd. Questo problema è stato risolto in Amazon EMR 6.4.0.

  • C'è un problema in Amazon EMR 6.2.0 in cui httpd ha continuamente esito negativo, causando la non disponibilità di Ganglia. Viene visualizzato un errore "cannot connect to the server (impossibile connettersi al server)". Per risolvere questo problema in un cluster che è già in esecuzione, abilita SSH sul nodo primario del cluster e aggiungi la riga Listen 80 al file httpd.conf presente in /etc/httpd/conf/httpd.conf. Questo problema è stato risolto in Amazon EMR 6.3.0.

  • HTTPD ha esito negativo su cluster EMR 6.2.0 quando si utilizza una configurazione di sicurezza. Ciò rende l'interfaccia utente dell'applicazione Web Ganglia non disponibile. Per accedere all'interfaccia utente dell'applicazione Web Ganglia, aggiungi Listen 80 al file /etc/httpd/conf/httpd.conf sul nodo primario del cluster. Per ulteriori informazioni su come connettersi al cluster, consulta la sezione Connect to the Primary Node Using SSH (Connessione al nodo primario tramite SSH).

    Inoltre, EMR Notebooks non riesce a stabilire una connessione con cluster EMR 6.2.0 quando si utilizza una configurazione di sicurezza. Il notebook non riuscirà a elencare i kernel e a inviare processi Spark. Ti consigliamo invece di utilizzare EMR Notebooks con un'altra versione di Amazon EMR.

  • Limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti [corretto nelle versioni più recenti AL2 ]. Versioni di Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 ed emr-6.2.0 si basano su versioni precedenti di Amazon Linux 2 (), che hanno un'impostazione ulimit inferiore per «Max open files» quando i cluster Amazon EMR vengono creati con l'AMI predefinita. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono una correzione permanente con un'impostazione "Max open files" (Max. file aperti). Le versioni con il limite minimo del file aperto causano l'errore "Too many open files" (Troppi file aperti) durante l'invio del processo Spark. Nelle versioni interessate, l'AMI predefinita di Amazon EMR ha un'impostazione ulimit di default di 4096 per "Max open files" (Max. file aperti), che è inferiore al limite di file 65536 nell'ultima AMI di Amazon Linux 2. L'impostazione ulimit inferiore per "Max open files (Max. file aperti)" causa il fallimento del processo Spark quando il driver e l'executor Spark tentano di aprire più di 4096 file. Per risolvere il problema, Amazon EMR dispone di uno script dell'operazione bootstrap (BA) che regola l'impostazione ulimit durante la creazione del cluster.

    Se utilizzi una versione di Amazon EMR meno recente che non ha la soluzione permanente per questo problema, la seguente soluzione alternativa consente di impostare esplicitamente l'ulimit del controller dell'istanza su un massimo di 65536 file.

    Impostazione di un ulimit esplicito dalla riga di comando
    1. Modifica /etc/systemd/system/instance-controller.service per aggiungere i seguenti parametri alla sezione Servizio.

      LimitNOFILE=65536

      LimitNPROC=65536

    2. Riavvia InstanceController

      $ sudo systemctl daemon-reload

      $ sudo systemctl restart instance-controller

    Impostazione di un ulimit usando l'operazione di bootstrap (BA)

    È inoltre possibile utilizzare uno script dell'operazione di bootstrap (BA) per configurare l'ulimit del controller di istanza a 65536 file durante la creazione del cluster.

    #!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
  • Importante

    Amazon EMR 6.1.0 e 6.2.0 includono un problema di prestazioni che può influire in modo critico su tutte le operazioni di inserimento, upsert ed eliminazione di Hudi. Se prevedi di utilizzare Hudi con Amazon EMR 6.1.0 o 6.2.0, AWS contatta l'assistenza per ottenere un Hudi RPM con patch.

  • Importante

    I cluster EMR che eseguono Amazon Linux o Amazon Linux 2 Amazon Machine Images (AMIs) utilizzano il comportamento predefinito di Amazon Linux e non scaricano e installano automaticamente aggiornamenti del kernel importanti e critici che richiedono un riavvio. Questo è lo stesso comportamento delle altre EC2 istanze Amazon che eseguono l'AMI Amazon Linux predefinita. Se nuovi aggiornamenti software Amazon Linux che richiedono un riavvio (ad esempio, aggiornamenti del kernel, NVIDIA e CUDA) risultano disponibili dopo il rilascio di una versione di Amazon EMR, le istanze del cluster EMR che eseguono l'AMI predefinita non scaricano e installano automaticamente tali aggiornamenti. Per ottenere gli aggiornamenti del kernel, puoi personalizzare l'AMI di Amazon EMR per utilizzare l'AMI di Amazon Linux più recente.

  • Gli artifact di Amazon EMR 6.2.0 Maven non vengono pubblicati. Saranno pubblicati con una futura versione di Amazon EMR.

  • Il HFile tracciamento persistente tramite la tabella del HBase file system storefile non supporta la funzionalità di HBase replica regionale. Per ulteriori informazioni sulla replica delle aree, consulta HBase Timeline-Consistent High Available Reads.

  • Differenze di versione dei bucket Hive tra Amazon EMR 6.x e EMR 5.x

    EMR 5.x utilizza OOS Apache Hive 2, mentre EMR 6.x utilizza OOS Apache Hive 3. L'Hive2 open source utilizza bucket di versione 1, mentre l'Hive3 open source utilizza bucket di versione 2. Questa differenza di versione dei bucket tra Hive 2 (EMR 5.x) e Hive 3 (EMR 6.x) presuppone un funzionamento diverso dell'hashing dei bucket Hive. Vedere l'esempio sottostante.

    La tabella seguente è un esempio creato rispettivamente in EMR 6.x ed EMR 5.x.

    -- Using following LOCATION in EMR 6.x CREATE TABLE test_bucketing (id INT, desc STRING) PARTITIONED BY (day STRING) CLUSTERED BY(id) INTO 128 BUCKETS LOCATION 's3://your-own-s3-bucket/emr-6-bucketing/'; -- Using following LOCATION in EMR 5.x LOCATION 's3://your-own-s3-bucket/emr-5-bucketing/';

    Sono stati inseriti gli stessi dati in EMR 6.x ed EMR 5.x.

    INSERT INTO test_bucketing PARTITION (day='01') VALUES(66, 'some_data'); INSERT INTO test_bucketing PARTITION (day='01') VALUES(200, 'some_data');

    Osservando la posizione S3, si nota che il nome del file di bucket è diverso, poiché la funzione di hashing è diversa tra EMR 6.x (Hive 3) e EMR 5.x (Hive 2).

    [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-6-bucketing/day=01/ 2020-10-21 20:35:16 13 000025_0 2020-10-21 20:35:22 14 000121_0 [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-5-bucketing/day=01/ 2020-10-21 20:32:07 13 000066_0 2020-10-21 20:32:51 14 000072_0

    Puoi notare la differenza di versione anche eseguendo il comando riportato di seguito nella CLI Hive in EMR 6.x. Potrai notare che la CLI restituisce bucket di versione 2.

    hive> DESCRIBE FORMATTED test_bucketing; ... Table Parameters: bucketing_version 2 ...
  • Problema noto nei cluster con più nodi primari e autenticazione Kerberos

    Se esegui cluster con più nodi primari e autenticazione Kerberos nella versione 5.20.0 di Amazon EMR e successivi, è possibile che si verifichino problemi con le operazioni del cluster, quali la riduzione o l'invio di fasi, dopo che il cluster è rimasto in esecuzione per un certo periodo di tempo. Il periodo di tempo dipende dal periodo di validità del ticket Kerberos definito dall'utente. Il problema di dimensionamento verso il basso influisce sia sulle richieste di scalabilità automatica che sulle richieste esplicite di dimensionamento verso il basso inviate dall'utente. Possono essere influenzate anche le operazioni cluster aggiuntive.

    Soluzione alternativa:

    • Abilita SSH come utente hadoop al primo nodo primario del cluster EMR con più nodi primari.

    • Esegui il comando seguente per rinnovare il ticket Kerberos per l'utente hadoop.

      kinit -kt <keytab_file> <principal>

      In genere, il file keytab si trova in /etc/hadoop.keytab e l'entità principale si presenta nella forma di hadoop/<hostname>@<REALM>.

    Nota

    Questa soluzione alternativa sarà valida per il periodo di tempo in cui il ticket Kerberos è valido. La durata è di 10 ore per impostazione predefinita, ma può essere configurata dalle impostazioni Kerberos. È necessario eseguire nuovamente il comando sopra indicato una volta scaduto il ticket Kerberos.

  • Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:

    • Due o più partizioni vengono scansionate dalla stessa tabella.

    • Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio s3://bucket/table/p=a è un prefisso di s3://bucket/table/p=a b.

    • Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere / (U+002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U+0020) che compare tra a e b in s3://bucket/table/p=a b. Tieni presente che esistono altri 14 caratteri non di controllo: !"#$%&‘()*+,-. Per ulteriori informazioni, consulta la sezione UTF-8 encoding table and Unicode characters (Tabella di codifica UTF-8 e caratteri Unicode).

    Per ovviare a questo problema, imposta la configurazione di spark.sql.sources.fastS3PartitionDiscovery.enabled su false nella classificazione di spark-defaults.

Versioni dei componenti 6.2.0

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con emr o aws. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo CommunityVersion-amzn-EmrVersion. EmrVersion inizia da 0. Ad esempio, se un componente della community open source denominato myapp-component con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come 2.2-amzn-2.

Componente Versione Descrizione
aws-sagemaker-spark-sdk1.4.1 SageMaker SDK Amazon Spark
emr-ddb4.16.0Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop.
emr-goodies3.1.0Librerie utili per l'ecosistema Hadoop.
emr-kinesis3.5.0Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop.
emr-notebook-env1.0.0Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter
emr-s3-dist-cp2.16.0Applicazione di copia distribuita ottimizzata per Amazon S3.
emr-s3-select2.0.0Connettore di EMR S3Select
emrfs2,44,0Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop.
flink-client1.11.2Applicazioni e script client a riga di comando Apache Flink.
flink-jobmanager-config1.11.2Gestione delle risorse sui nodi EMR per Apache Flink. JobManager
ganglia-monitor3.7.2Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia.
ganglia-metadata-collector3.7.2Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia.
ganglia-web3.7.1Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia.
hadoop-client3.2.1-amzn-2Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn".
hadoop-hdfs-datanode3.2.1-amzn-2Servizio a livello di nodo HDFS per lo storage di blocchi.
hadoop-hdfs-library3.2.1-amzn-2Libreria e client di riga di comando HDFS
hadoop-hdfs-namenode3.2.1-amzn-2Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi.
hadoop-hdfs-journalnode3.2.1-amzn-2Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA.
hadoop-httpfs-server3.2.1-amzn-2Endpoint HTTP per le operazioni HDFS.
hadoop-kms-server3.2.1-amzn-2Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider
hadoop-mapred3.2.1-amzn-2MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce
hadoop-yarn-nodemanager3.2.1-amzn-2Servizio YARN per la gestione di container su un singolo nodo.
hadoop-yarn-resourcemanager3.2.1-amzn-2Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite.
hadoop-yarn-timeline-server3.2.1-amzn-2Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN.
hbase-hmaster2.2.6-amzn-0Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi.
hbase-region-server2.2.6-amzn-0Servizio per servire una o più HBase regioni.
hbase-client2.2.6-amzn-0HBase client da riga di comando.
hbase-rest-server2.2.6-amzn-0Servizio che fornisce un endpoint RESTful HTTP per. HBase
hbase-thrift-server2.2.6-amzn-0Servizio che fornisce un endpoint Thrift a. HBase
hcatalog-client3.1.2-amzn-3Client a riga di comando "hcat" per la manipolazione del server hcatalog.
hcatalog-server3.1.2-amzn-3Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite.
hcatalog-webhcat-server3.1.2-amzn-3Endpoint HTTP che fornisce un'interfaccia REST a HCatalog.
hive-client3.1.2-amzn-3Client a riga di comando Hive.
hive-hbase3.1.2-amzn-3Client Hive-hbase.
hive-metastore-server3.1.2-amzn-3Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop.
hive-server23.1.2-amzn-3Servizio per l'accettazione di query Hive come richieste Web.
hudi0.6.0-amzn-1Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza.
hudi-presto0.6.0-amzn-1Libreria bundle per eseguire Presto con Hudi.
hudi-prestosql0.6.0-amzn-1Libreria bundle per eseguire PrestoSQL con Hudi.
hudi-spark0.6.0-amzn-1Libreria bundle per eseguire Spark con Hudi.
hue-server4.8.0Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop
jupyterhub1.1.0Server multi-utente per notebook Jupyter
livy-server0.7.0-incubatingInterfaccia REST per l'interazione con Apache Spark
nginx1.12.1nginx [motore x] è un server proxy inverso e HTTP
mxnet1.7.0Una libreria flessibile, scalabile ed efficiente per il deep learning.
mariadb-server5.5.64+Server di database MariaDB.
nvidia-cuda10.1.243Driver Nvidia e kit di strumenti Cuda
oozie-client5.2.0Client a riga di comando Oozie.
oozie-server5.2.0Servizio per l'accettazione delle richieste di flusso di lavoro Oozie.
opencv4.4.0Open Source Computer Vision Library.
phoenix-library5.0.0- -2,0 HBaseLe librerie Phoenix per server e client
phoenix-query-server5.0.0- -2,0 HBaseUn server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica
presto-coordinator0.238.3-amzn-1Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker.
presto-worker0.238.3-amzn-1Servizio per l'esecuzione di parti di una query.
presto-client0.238.3-amzn-1Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato.
prestosql-coordinator343Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti prestosql-workers.
prestosql-worker343Servizio per l'esecuzione di parti di una query.
prestosql-client343Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato.
pig-client0.17.0Client a riga di comando Pig.
r3.4.3The R Project for Statistical Computing
ranger-kms-server2.0.0Sistema di gestione delle chiavi Apache Ranger
spark-client3.0.1-amzn-0Client a riga di comando Spark.
spark-history-server3.0.1-amzn-0Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata.
spark-on-yarn3.0.1-amzn-0Motore di esecuzione in memoria per YARN.
spark-yarn-slave3.0.1-amzn-0Librerie Apache Spark necessarie per gli slave YARN.
spark-rapids0,2,0Plugin Nvidia Spark RAPIDS che accelera Apache Spark con. GPUs
sqoop-client1.4.7Client a riga di comando Apache Sqoop.
tensorflow2.3.1TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni.
tez-on-yarn0.9.2L'applicazione e le librerie tez YARN.
webserver2.4.41+Server Apache HTTP.
zeppelin-server0.9.0-preview1Notebook basato sul Web che consente l'analisi di dati interattiva.
zookeeper-server3.4.14Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo.
zookeeper-client3.4.14ZooKeeper client a riga di comando.

Classificazioni di configurazione 6.2.0

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio hive-site.xml. Per ulteriori informazioni, consulta Configurazione delle applicazioni.

Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon EMR avvia solo le azioni di riconfigurazione per le classificazioni modificate. Per ulteriori informazioni, consulta Riconfigurazione di un gruppo di istanze in un cluster in esecuzione.

Classificazioni emr-6.2.0
Classificazioni Descrizione Operazioni di riconfigurazione

capacity-scheduler

Modifica i valori nel file capacity-scheduler.xml di Hadoop.

Restarts the ResourceManager service.

container-executor

Modificare i valori nel file container-executor.cfg di Hadoop YARN.

Not available.

container-log4j

Modifica i valori nel file container-log4j.properties di Hadoop YARN.

Not available.

core-site

Modifica i valori nel file core-site.xml di Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

docker-conf

Modifica le impostazioni relative a docker.

Not available.

emrfs-site

Modifica le impostazioni EMRFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer.

flink-conf

Modifica le impostazione flink-conf.yaml.

Not available.

flink-log4j

Modifica le impostazioni Flink log4j.properties.

Not available.

flink-log4j-yarn-session

Modifica le impostazioni di Flink log4 j-yarn-session .properties.

Not available.

flink-log4j-cli

Modifica le impostazioni Flink log4j-cli.properties.

Not available.

hadoop-env

Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer.

hadoop-log4j

Modifica i valori nel file log4j.properties di Hadoop.

Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer.

hadoop-ssl-server

Modifica la configurazione server ssl hadoop

Not available.

hadoop-ssl-client

Modifica la configurazione client ssl hadoop

Not available.

hbase

Impostazioni curate da Amazon EMR per Apache. HBase

Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts.

hbase-env

Modifica i valori nell'ambiente. HBase

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-log4j

Modifica i valori nel file HBase hbase-log4j.properties.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-metrics

Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer.

hbase-policy

Cambia i valori nel HBase file hbase-policy.xml.

Not available.

hbase-site

Modifica i valori nel HBase file hbase-site.xml.

Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer.

hdfs-encryption-zones

Configura le zone di crittografia HDFS.

This classification should not be reconfigured.

hdfs-env

Modifica i valori nell'ambiente HDFS.

Restarts Hadoop HDFS ZKFC.

hdfs-site

Modifica i valori nel file hdfs-site.xml di HDFS.

Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs.

hcatalog-env

Modifica i valori nell' HCatalogambiente.

Restarts Hive HCatalog Server.

hcatalog-server-jndi

Modifica i valori in HCatalog jndi.properties.

Restarts Hive HCatalog Server.

hcatalog-server-proto-hive-site

Cambia i valori nel file .xml HCatalog. proto-hive-site

Restarts Hive HCatalog Server.

hcatalog-webhcat-env

Modifica i valori nell'ambiente HCatalog HCat Web.

Restarts Hive WebHCat server.

hcatalog-webhcat-log4j2

Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web.

Restarts Hive WebHCat server.

hcatalog-webhcat-site

Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat.

Restarts Hive WebHCat server.

hive

Impostazioni Amazon EMR per Apache Hive.

Sets configurations to launch Hive LLAP service.

hive-beeline-log4j2

Modifica i valori nel file beeline-log4j2.properties di Hive.

Not available.

hive-parquet-logging

Modifica i valori nel file parquet-logging.properties di Hive.

Not available.

hive-env

Modifica i valori nell'ambiente Hive.

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore.

hive-exec-log4j2

Modifica i valori nel file hive-exec-log 4j2.properties di Hive.

Not available.

hive-llap-daemon-log4j2

Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log

Not available.

hive-log4j2

Modifica i valori nel file hive-log4j2.properties di Hive.

Not available.

hive-site

Modifica i valori nel file hive-site.xml di Hive

Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin.

hiveserver2-site

Modifica i valori nel file hiveserver2-site.xml di Hive Server2

Not available.

hue-ini

Modifica i valori nel file ini di Hue

Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations.

httpfs-env

Modifica i valori nell'ambiente HTTPFS.

Restarts Hadoop Httpfs service.

httpfs-site

Modifica i valori nel file httpfs-site.xml di Hadoop.

Restarts Hadoop Httpfs service.

hadoop-kms-acls

Modifica i valori nel file kms-acls.xml di Hadoop.

Not available.

hadoop-kms-env

Modifica i valori nell'ambiente Hadoop KMS.

Restarts Hadoop-KMS service.

hadoop-kms-log4j

Modifica i valori nel file kms-log4j.properties di Hadoop.

Not available.

hadoop-kms-site

Modifica i valori nel file kms-site.xml di Hadoop.

Restarts Hadoop-KMS and Ranger-KMS service.

hudi-env

Modifica i valori nell'ambiente Hudi.

Not available.

jupyter-notebook-conf

Modifica i valori nel file jupyter_notebook_config.py di Jupyter Notebook.

Not available.

jupyter-hub-conf

Cambia i valori nel file jupyterhub_config.py JupyterHubs.

Not available.

jupyter-s3-conf

Configura la persistenza di S3 del notebook Jupyter.

Not available.

jupyter-sparkmagic-conf

Modifica i valori nel file config.json di Sparkmagic.

Not available.

livy-conf

Modifica i valori nel file livy.conf di Livy.

Restarts Livy Server.

livy-env

Modifica i valori nell'ambiente Livy.

Restarts Livy Server.

livy-log4j

Modifica le impostazioni Livy log4j.properties.

Restarts Livy Server.

mapred-env

Modifica i valori nell'ambiente dell' MapReduce applicazione.

Restarts Hadoop MapReduce-HistoryServer.

mapred-site

Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione.

Restarts Hadoop MapReduce-HistoryServer.

oozie-env

Modifica i valori nell'ambiente di Oozie.

Restarts Oozie.

oozie-log4j

Modifica i valori nel file oozie-log4j.properties di Oozie.

Restarts Oozie.

oozie-site

Modifica i valori nel file oozie-site.xml di Oozie.

Restarts Oozie.

phoenix-hbase-metrics

Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix.

Not available.

phoenix-hbase-site

Modifica i valori nel file hbase-site.xml di Phoenix.

Not available.

phoenix-log4j

Modifica i valori nel file log4j.properties di Phoenix.

Restarts Phoenix-QueryServer.

phoenix-metrics

Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix.

Not available.

pig-env

Change values in the Pig environment.

Not available.

pig-properties

Modifica i valori nel file pig.properties di Pig.

Restarts Oozie.

pig-log4j

Modifica i valori nel file log4j.properties di Pig.

Not available.

presto-log

Modifica i valori nel file log.properties di Presto.

Restarts Presto-Server (for PrestoDB)

presto-config

Modifica i valori nel file config.properties di Presto.

Restarts Presto-Server (for PrestoDB)

presto-password-authenticator

Modifica i valori nel file password-authenticator.properties di Presto.

Not available.

presto-env

Modifica i valori nel file presto-env.sh di Presto.

Restarts Presto-Server (for PrestoDB)

presto-node

Modifica i valori nel file node.properties di Presto.

Not available.

presto-connector-blackhole

Modifica i valori nel file blackhole.properties di Presto.

Not available.

presto-connector-cassandra

Modifica i valori nel file cassandra.properties di Presto.

Not available.

presto-connector-hive

Modifica i valori nel file hive.properties di Presto.

Restarts Presto-Server (for PrestoDB)

presto-connector-jmx

Modifica i valori nel file jmx.properties di Presto.

Not available.

presto-connector-kafka

Modifica i valori nel file kafka.properties di Presto.

Not available.

presto-connector-localfile

Modifica i valori nel file localfile.properties di Presto.

Not available.

presto-connector-memory

Modifica i valori nel file memory.properties di Presto.

Not available.

presto-connector-mongodb

Modifica i valori nel file mongodb.properties di Presto.

Not available.

presto-connector-mysql

Modifica i valori nel file mysql.properties di Presto.

Not available.

presto-connector-postgresql

Modifica i valori nel file postgresql.properties di Presto.

Not available.

presto-connector-raptor

Modifica i valori nel file raptor.properties di Presto.

Not available.

presto-connector-redis

Modifica i valori nel file redis.properties di Presto.

Not available.

presto-connector-redshift

Modifica i valori nel file redshift.properties di Presto.

Not available.

presto-connector-tpch

Modifica i valori nel file tpch.properties di Presto.

Not available.

presto-connector-tpcds

Modifica i valori nel file tpcds.properties di Presto.

Not available.

prestosql-log

Modifica i valori nel file log.properties di Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-config

Modifica i valori nel file config.properties di Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-password-authenticator

Modifica i valori nel file password-authenticator.properties di Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-env

Modifica i valori nel file presto-env.sh di Presto.

Restarts Presto-Server (for PrestoSQL)

prestosql-node

Modifica i valori nel file node.properties di PrestoSQL.

Not available.

prestosql-connector-blackhole

Modifica i valori nel file blackhole.properties di PrestoSQL.

Not available.

prestosql-connector-cassandra

Modifica i valori nel file cassandra.properties di PrestoSQL.

Not available.

prestosql-connector-hive

Modifica i valori nel file hive.properties di PrestoSQL.

Restarts Presto-Server (for PrestoSQL)

prestosql-connector-jmx

Modifica i valori nel file jmx.properties di PrestoSQL.

Not available.

prestosql-connector-kafka

Modifica i valori nel file kafka.properties di PrestoSQL.

Not available.

prestosql-connector-localfile

Modifica i valori nel file localfile.properties di PrestoSQL.

Not available.

prestosql-connector-memory

Modifica i valori nel file memory.properties di PrestoSQL.

Not available.

prestosql-connector-mongodb

Modifica i valori nel file mongodb.properties di PrestoSQL.

Not available.

prestosql-connector-mysql

Modifica i valori nel file mysql.properties di PrestoSQL.

Not available.

prestosql-connector-postgresql

Modifica i valori nel file postgresql.properties di PrestoSQL.

Not available.

prestosql-connector-raptor

Modifica i valori nel file raptor.properties di PrestoSQL.

Not available.

prestosql-connector-redis

Modifica i valori nel file redis.properties di PrestoSQL.

Not available.

prestosql-connector-redshift

Modifica i valori nel file redshift.properties di PrestoSQL.

Not available.

prestosql-connector-tpch

Modifica i valori nel file tpch.properties di PrestoSQL.

Not available.

prestosql-connector-tpcds

Modifica i valori nel file tpcds.properties di PrestoSQL.

Not available.

ranger-kms-dbks-site

Modifica i valori nel file dbks-site.xml di Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-site

Modifica i valori nel ranger-kms-site file.xml di Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-env

Modifica i valori nell'ambiente Ranger KMS.

Restarts Ranger KMS Server.

ranger-kms-log4j

Modifica i valori nel file kms-log4j.properties di Ranger KMS.

Not available.

ranger-kms-db-ca

Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS.

Not available.

spark

Impostazioni Amazon EMR per Apache Spark.

This property modifies spark-defaults. See actions there.

spark-defaults

Modifica i valori nel file spark-defaults.conf di Spark.

Restarts Spark history server and Spark thrift server.

spark-env

Modifica i valori nell'ambiente Spark.

Restarts Spark history server and Spark thrift server.

spark-hive-site

Modifica i valori nel file hive-site.xml di Spark

Not available.

spark-log4j

Modifica i valori nel file log4j.properties di Spark.

Restarts Spark history server and Spark thrift server.

spark-metrics

Modifica i valori nel file metrics.properties di Spark.

Restarts Spark history server and Spark thrift server.

sqoop-env

Modifica i valori nell'ambiente di Sqoop.

Not available.

sqoop-oraoop-site

Modifica i valori nel file oraoop-site.xml di Sqoop OraOop.

Not available.

sqoop-site

Modifica i valori nel file sqoop-site.xml di Sqoop.

Not available.

tez-site

Modifica i valori nel file tez-site.xml file di Tez.

Restart Oozie.

yarn-env

Modifica i valori nell'ambiente YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer.

yarn-site

Modifica i valori nel file yarn-site.xml di YARN.

Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer.

zeppelin-env

Modifica i valori nell'ambiente Zeppelin.

Restarts Zeppelin.

zookeeper-config

Cambia i valori nel ZooKeeper file zoo.cfg.

Restarts Zookeeper server.

zookeeper-log4j

Modifica i valori nel file ZooKeeper log4j.properties.

Restarts Zookeeper server.