Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Rilascio 5.30.1 di Amazon EMR
Versioni dell'applicazione 5.30.1
Questa versione include le seguenti applicazioni: Flink
La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).
Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
emr-5.30.1 | emr-5.30.0 | emr-5.29.0 | emr-5.28.1 | |
---|---|---|---|---|
AWS SDK per Java | 1.11.759 | 1,11,759 | 1,11,682 | 1,11,659 |
Python | 2.7, 3.7 | 2.7, 3.7 | 2,7, 3,6 | 2.7, 3.6 |
Scala | 211,12 | 2,11,12 | 2,11,12 | 2,11,12 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.10.0 | 1.10.0 | 1.9.1 | 1.9.0 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 1.4.13 | 1.4.13 | 1.4.10 | 1.4.10 |
HCatalog | 2.3.6 | 2.3.6 | 2.3.6 | 2.3.6 |
Hadoop | 2,8,5 | 2,8,5 | 2,8,5 | 2,8,5 |
Hive | 2.3.6 | 2.3.6 | 2.3.6 | 2.3.6 |
Hudi | 0.5.2-incubating | 0.5.2-incubating | 0.5.0-incubating | 0.5.0-incubating |
Hue | 4.6.0 | 4.6.0 | 4.4.0 | 4.4.0 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 |
Livy | 0.7.0 | 0.7.0 | 0,6,0 | 0,6,0 |
MXNet | 1.5.1 | 1.5.1 | 1.5.1 | 1.5.1 |
Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 |
Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 |
Phoenix | 4,14,3 | 4,14,3 | 4,14,3 | 4,14,3 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.232 | 0.232 | 0.227 | 0.227 |
Spark | 2.4.5 | 2.4.5 | 2.4.4 | 2.4.4 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 1.14.0 | 1.14.0 | 1.14.0 | 1.14.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (PrestoSQL) | - | - | - | - |
Zeppelin | 0.8.2 | 0.8.2 | 0.8.2 | 0.8.2 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
Note di rilascio 5.30.1
Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 5.30.1. Le modifiche sono relative alla versione 5.30.0.
Data del rilascio iniziale: 30 giugno 2020
Ultimo aggiornamento: 24 agosto 2020
Modifiche, miglioramenti e problemi risolti
Le versioni più recenti di Amazon EMR risolvono il problema con un limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti di Amazon EMR. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono ora una correzione permanente con un'impostazione "Max open files" (Max. file aperti).
Risolto il problema per cui il processo del controller di istanza generava un numero infinito di processi.
Risolto un problema per cui Hue non era in grado di eseguire una query Hive, mostrando il messaggio "database is locked (database bloccato)" e impedendo l'esecuzione di query.
Risolto un problema Spark per consentire l'esecuzione simultanea di più attività nel cluster EMR.
Risolto un problema del notebook Jupyter che causava l'errore "too many open files (troppi file aperti)" nel server Jupyter.
Corretto un problema relativo all'ora di inizio del cluster.
Nuove funzionalità
Le interfacce utente delle applicazioni persistenti Timeline Server di YARN e Tez sono disponibili con Amazon EMR versioni 6.x ed EMR versione 5.30.1 e successive. L'accesso ai collegamenti One-Click alla cronologia dell'applicazione persistente consente di accedere rapidamente alla cronologia dei processi senza configurare un proxy Web tramite una connessione SSH. I log dei cluster attivi e terminati sono disponibili per 30 giorni dopo la fine dell'applicazione. Per ulteriori informazioni, consulta Visualizzazione delle interfacce utente delle applicazioni persistenti nella Guida alla gestione di Amazon EMR.
EMR Notebook Execution APIs è disponibile per eseguire notebook EMR tramite uno script o una riga di comando. La possibilità di avviare, interrompere, elencare e descrivere le esecuzioni dei notebook EMR senza la AWS console consente di controllare a livello di programmazione un notebook EMR. Utilizzando una cella del notebook parametrizzata, è possibile passare diversi valori di parametro a un notebook senza doverne creare una copia per ogni nuovo set di valori dei parametri. Consulta Operazioni dell'API EMR. Per un codice di esempio, consulta Comandi di esempio per eseguire EMR Notebooks a livello di codice.
Problemi noti
-
Limite «Numero massimo di file aperti» inferiore rispetto alle versioni precedenti AL2 [corretto nelle versioni più recenti]. Versioni di Amazon EMR: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0 ed emr-6.2.0 si basano su versioni precedenti di Amazon Linux 2 (), che hanno un'impostazione ulimit inferiore per «Max open files» quando i cluster Amazon EMR vengono creati con l'AMI predefinita. AL2 Le versioni di Amazon EMR 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 e successive includono una correzione permanente con un'impostazione "Max open files" (Max. file aperti). Le versioni con il limite minimo del file aperto causano l'errore "Too many open files" (Troppi file aperti) durante l'invio del processo Spark. Nelle versioni interessate, l'AMI predefinita di Amazon EMR ha un'impostazione ulimit di default di 4096 per "Max open files" (Max. file aperti), che è inferiore al limite di file 65536 nell'ultima AMI di Amazon Linux 2. L'impostazione ulimit inferiore per "Max open files (Max. file aperti)" causa il fallimento del processo Spark quando il driver e l'executor Spark tentano di aprire più di 4096 file. Per risolvere il problema, Amazon EMR dispone di uno script dell'operazione bootstrap (BA) che regola l'impostazione ulimit durante la creazione del cluster.
Se utilizzi una versione di Amazon EMR meno recente che non ha la soluzione permanente per questo problema, la seguente soluzione alternativa consente di impostare esplicitamente l'ulimit del controller dell'istanza su un massimo di 65536 file.
Impostazione di un ulimit esplicito dalla riga di comando
Modifica
/etc/systemd/system/instance-controller.service
per aggiungere i seguenti parametri alla sezione Servizio.LimitNOFILE=65536
LimitNPROC=65536
Riavvia InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
Impostazione di un ulimit usando l'operazione di bootstrap (BA)
È inoltre possibile utilizzare uno script dell'operazione di bootstrap (BA) per configurare l'ulimit del controller di istanza a 65536 file durante la creazione del cluster.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
-
EMR Notebooks
La caratteristica che consente di installare kernel e librerie Python aggiuntive sul nodo primario del cluster è disabilitata per impostazione predefinita in EMR versione 5.30.1. Per ulteriori informazioni su questa caratteristica, consulta la sezione Installing Kernels and Python Libraries on a Cluster Primary Node (Installazione di kernel e librerie Python su un nodo primario del cluster).
Per abilitare questa funzione, procedi come segue:
Assicurati che le policy di autorizzazione associate al ruolo di servizio per EMR Notebooks consentano l'operazione seguente:
elasticmapreduce:ListSteps
Per ulteriori informazioni, consultare il Ruolo del servizio per EMR Notebooks.
Utilizzare AWS CLI per eseguire un passaggio sul cluster che configura EMR Notebooks, come illustrato nell'esempio seguente. Sostituisci
us-east-1
con la regione in cui risiede il cluster. Per ulteriori informazioni, consulta Aggiunta di fasi a un cluster utilizzando la AWS CLI.aws emr add-steps --cluster-id
MyClusterID
--steps Type=CUSTOM_JAR,Name=EMRNotebooksSetup,ActionOnFailure=CONTINUE,Jar=s3://us-east-1
.elasticmapreduce/libs/script-runner/script-runner.jar,Args=["s3://awssupportdatasvcs.com/bootstrap-actions/EMRNotebooksSetup/emr-notebooks-setup.sh"]
-
Dimensionamento gestito
Le operazioni di dimensionamento gestito su cluster 5.30.0 e 5.30.1 senza Presto installato possono causare errori delle applicazioni o far sì che un gruppo di istanze o un parco istanze uniforme mantenga lo stato
ARRESTED
, in particolare quando un'operazione di riduzione è seguita rapidamente da un'operazione di aumento.Come soluzione alternativa, scegli Presto come applicazione da installare quando crei un cluster con Amazon EMR rilasci 5.30.0 e 5.30.1, anche se il tuo processo non richiede Presto.
-
Problema noto nei cluster con più nodi primari e autenticazione Kerberos
Se esegui cluster con più nodi primari e autenticazione Kerberos nella versione 5.20.0 di Amazon EMR e successivi, è possibile che si verifichino problemi con le operazioni del cluster, quali la riduzione o l'invio di fasi, dopo che il cluster è rimasto in esecuzione per un certo periodo di tempo. Il periodo di tempo dipende dal periodo di validità del ticket Kerberos definito dall'utente. Il problema di dimensionamento verso il basso influisce sia sulle richieste di scalabilità automatica che sulle richieste esplicite di dimensionamento verso il basso inviate dall'utente. Possono essere influenzate anche le operazioni cluster aggiuntive.
Soluzione alternativa:
-
Abilita SSH come utente
hadoop
al primo nodo primario del cluster EMR con più nodi primari. -
Esegui il comando seguente per rinnovare il ticket Kerberos per l'utente
hadoop
.kinit -kt <keytab_file> <principal>
In genere, il file keytab si trova in
/etc/hadoop.keytab
e l'entità principale si presenta nella forma dihadoop/<hostname>@<REALM>
.
Nota
Questa soluzione alternativa sarà valida per il periodo di tempo in cui il ticket Kerberos è valido. La durata è di 10 ore per impostazione predefinita, ma può essere configurata dalle impostazioni Kerberos. È necessario eseguire nuovamente il comando sopra indicato una volta scaduto il ticket Kerberos.
-
Se utilizzi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 ed esegui Spark nei rilasci di Amazon EMR da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
-
Due o più partizioni vengono scansionate dalla stessa tabella.
-
Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio
s3://bucket/table/p=a
è un prefisso dis3://bucket/table/p=a b
. -
Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore UTF-8 inferiore al carattere
/
(U+002F). Ad esempio, rientra in questa categoria il carattere dello spazio (U+0020) che compare tra a e b ins3://bucket/table/p=a b
. Tieni presente che esistono altri 14 caratteri non di controllo:!"#$%&‘()*+,-
. Per ulteriori informazioni, consulta la sezione UTF-8 encoding table and Unicode characters(Tabella di codifica UTF-8 e caratteri Unicode).
Per ovviare a questo problema, imposta la configurazione di
spark.sql.sources.fastS3PartitionDiscovery.enabled
sufalse
nella classificazione dispark-defaults
.-
Versioni dei componenti 5.30.1
I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con emr
o aws
. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.
Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo
. CommunityVersion
-amzn-EmrVersion
inizia da 0. Ad esempio, se un componente della community open source denominato EmrVersion
myapp-component
con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come 2.2-amzn-2
.
Componente | Versione | Descrizione |
---|---|---|
aws-sagemaker-spark-sdk | 1.3.0 | SageMaker SDK Amazon Spark |
emr-ddb | 4.14.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. |
emr-goodies | 2.13.0 | Librerie utili per l'ecosistema Hadoop. |
emr-kinesis | 3.5.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. |
emr-s3-dist-cp | 2.14.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. |
emr-s3-select | 1.5.0 | Connettore di EMR S3Select |
emrfs | 2.40.0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. |
flink-client | 1.10.0 | Applicazioni e script client a riga di comando Apache Flink. |
ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. |
ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. |
ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. |
hadoop-client | 2.8.5-amzn-6 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". |
hadoop-hdfs-datanode | 2.8.5-amzn-6 | Servizio a livello di nodo HDFS per lo storage di blocchi. |
hadoop-hdfs-library | 2.8.5-amzn-6 | Libreria e client di riga di comando HDFS |
hadoop-hdfs-namenode | 2.8.5-amzn-6 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. |
hadoop-hdfs-journalnode | 2.8.5-amzn-6 | Servizio HDFS per gestire il giornale di registrazione del file system Hadoop su cluster HA. |
hadoop-httpfs-server | 2.8.5-amzn-6 | Endpoint HTTP per le operazioni HDFS. |
hadoop-kms-server | 2.8.5-amzn-6 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider |
hadoop-mapred | 2.8.5-amzn-6 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce |
hadoop-yarn-nodemanager | 2.8.5-amzn-6 | Servizio YARN per la gestione di container su un singolo nodo. |
hadoop-yarn-resourcemanager | 2.8.5-amzn-6 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. |
hadoop-yarn-timeline-server | 2.8.5-amzn-6 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. |
hbase-hmaster | 1.4.13 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. |
hbase-region-server | 1.4.13 | Servizio per servire una o più HBase regioni. |
hbase-client | 1.4.13 | HBase client da riga di comando. |
hbase-rest-server | 1.4.13 | Servizio che fornisce un endpoint RESTful HTTP per. HBase |
hbase-thrift-server | 1.4.13 | Servizio che fornisce un endpoint Thrift a. HBase |
hcatalog-client | 2.3.6-amzn-2 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. |
hcatalog-server | 2.3.6-amzn-2 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. |
hcatalog-webhcat-server | 2.3.6-amzn-2 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. |
hive-client | 2.3.6-amzn-2 | Client a riga di comando Hive. |
hive-hbase | 2.3.6-amzn-2 | Client Hive-hbase. |
hive-metastore-server | 2.3.6-amzn-2 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. |
hive-server2 | 2.3.6-amzn-2 | Servizio per l'accettazione di query Hive come richieste Web. |
hudi | 0.5.2-incubating | Framework di elaborazione incrementale per alimentare la pipiline dei dati a bassa latenza e alta efficienza. |
hudi-presto | 0.5.2-incubating | Libreria bundle per eseguire Presto con Hudi. |
hue-server | 4.6.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop |
jupyterhub | 1.1.0 | Server multi-utente per notebook Jupyter |
livy-server | 0.7.0-incubating | Interfaccia REST per l'interazione con Apache Spark |
nginx | 1.12.1 | nginx [motore x] è un server proxy inverso e HTTP |
mahout-client | 0.13.0 | Librerie per Machine Learning. |
mxnet | 1.5.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. |
mariadb-server | 5.5.64 | Server di database MySQL. |
nvidia-cuda | 9.2.88 | Driver Nvidia e kit di strumenti Cuda |
oozie-client | 5.2.0 | Client a riga di comando Oozie. |
oozie-server | 5.2.0 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. |
opencv | 3.4.0 | Open Source Computer Vision Library. |
phoenix-library | 4.14.3- -1,4 HBase | Le librerie Phoenix per server e client |
phoenix-query-server | 4.14.3- -1,4 HBase | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica |
presto-coordinator | 0.232 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. |
presto-worker | 0.232 | Servizio per l'esecuzione di parti di una query. |
presto-client | 0.232 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. |
pig-client | 0.17.0 | Client a riga di comando Pig. |
r | 3.4.3 | The R Project for Statistical Computing |
ranger-kms-server | 1.2.0 | Sistema di gestione delle chiavi Apache Ranger |
spark-client | 2.4.5-amzn-0 | Client a riga di comando Spark. |
spark-history-server | 2.4.5-amzn-0 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. |
spark-on-yarn | 2.4.5-amzn-0 | Motore di esecuzione in memoria per YARN. |
spark-yarn-slave | 2.4.5-amzn-0 | Librerie Apache Spark necessarie per gli slave YARN. |
sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. |
tensorflow | 1.14.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. |
tez-on-yarn | 0.9.2 | L'applicazione e le librerie tez YARN. |
webserver | 2.4.25+ | Server Apache HTTP. |
zeppelin-server | 0.8.2 | Notebook basato sul Web che consente l'analisi di dati interattiva. |
zookeeper-server | 3.4.14 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. |
zookeeper-client | 3.4.14 | ZooKeeper client a riga di comando. |
Classificazioni di configurazione 5.30.1
Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio hive-site.xml
. Per ulteriori informazioni, consulta Configurazione delle applicazioni.
Classificazioni | Descrizione |
---|---|
capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. |
container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop YARN. |
core-site | Modifica i valori nel file core-site.xml di Hadoop. |
emrfs-site | Modifica le impostazioni EMRFS. |
flink-conf | Modifica le impostazione flink-conf.yaml. |
flink-log4j | Modifica le impostazioni Flink log4j.properties. |
flink-log4j-yarn-session | Modifica le impostazioni di Flink log4 j-yarn-session .properties. |
flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. |
hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. |
hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. |
hadoop-ssl-server | Modifica la configurazione server ssl hadoop |
hadoop-ssl-client | Modifica la configurazione client ssl hadoop |
hbase | Impostazioni curate da Amazon EMR per Apache. HBase |
hbase-env | Modifica i valori nell'ambiente. HBase |
hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. |
hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase |
hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. |
hbase-site | Modifica i valori nel HBase file hbase-site.xml. |
hdfs-encryption-zones | Configura le zone di crittografia HDFS. |
hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. |
hcatalog-env | Cambia i valori nell' HCatalogambiente. |
hcatalog-server-jndi | Modifica i valori in HCatalog jndi.properties. |
hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site |
hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. |
hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. |
hcatalog-webhcat-site | Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat. |
hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. |
hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. |
hive-env | Modifica i valori nell'ambiente Hive. |
hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. |
hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log |
hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. |
hive-site | Modifica i valori nel file hive-site.xml di Hive |
hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 |
hue-ini | Modifica i valori nel file ini di Hue |
httpfs-env | Modifica i valori nell'ambiente HTTPFS. |
httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. |
hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. |
hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. |
hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. |
hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. |
hudi-env | Modifica i valori nell'ambiente Hudi. |
jupyter-notebook-conf | Modifica i valori nel file jupyter_notebook_config.py di Jupyter Notebook. |
jupyter-hub-conf | Cambia i valori nel file jupyterhub_config.py JupyterHubs. |
jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. |
jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. |
livy-conf | Modifica i valori nel file livy.conf di Livy. |
livy-env | Modifica i valori nell'ambiente Livy. |
livy-log4j | Modifica le impostazioni Livy log4j.properties. |
mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. |
mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. |
oozie-env | Modifica i valori nell'ambiente di Oozie. |
oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. |
oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. |
phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. |
phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. |
phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. |
phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. |
pig-env | Change values in the Pig environment. |
pig-properties | Modifica i valori nel file pig.properties di Pig. |
pig-log4j | Modifica i valori nel file log4j.properties di Pig. |
presto-log | Modifica i valori nel file log.properties di Presto. |
presto-config | Modifica i valori nel file config.properties di Presto. |
presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. |
presto-env | Modifica i valori nel file presto-env.sh di Presto. |
presto-node | Modifica i valori nel file node.properties di Presto. |
presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. |
presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. |
presto-connector-hive | Modifica i valori nel file hive.properties di Presto. |
presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. |
presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. |
presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. |
presto-connector-memory | Modifica i valori nel file memory.properties di Presto. |
presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. |
presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. |
presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. |
presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. |
presto-connector-redis | Modifica i valori nel file redis.properties di Presto. |
presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. |
presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. |
presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. |
ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger KMS. |
ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger KMS. |
ranger-kms-env | Modifica i valori nell'ambiente Ranger KMS. |
ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger KMS. |
ranger-kms-db-ca | Modifica i valori per il file CA su S3 per la connessione SSL di MySQL con Ranger KMS. |
recordserver-env | Modifica i valori nell'ambiente EMR. RecordServer |
recordserver-conf | Modificare i valori nel file erver.properties RecordServer di EMR. |
recordserver-log4j | Modifica i valori nel file log4j.properties RecordServer di EMR. |
spark | Impostazioni Amazon EMR per Apache Spark. |
spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. |
spark-env | Modifica i valori nell'ambiente Spark. |
spark-hive-site | Modifica i valori nel file hive-site.xml di Spark |
spark-log4j | Modifica i valori nel file log4j.properties di Spark. |
spark-metrics | Modifica i valori nel file metrics.properties di Spark. |
sqoop-env | Modifica i valori nell'ambiente di Sqoop. |
sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop. OraOop |
sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. |
tez-site | Modifica i valori nel file tez-site.xml file di Tez. |
yarn-env | Modifica i valori nell'ambiente YARN. |
yarn-site | Modifica i valori nel file yarn-site.xml di YARN. |
zeppelin-env | Modifica i valori nell'ambiente Zeppelin. |
zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. |
zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. |