Rilascio 4.4.0 di Amazon EMR - Amazon EMR

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Rilascio 4.4.0 di Amazon EMR

Versioni dell'applicazione 4.4.0

In questa versione sono supportate le seguenti applicazioni: Ganglia, HCatalog, Hadoop, Hive, Hue, Mahout, Oozie-Sandbox, Pig, Presto-Sandbox, Spark, Sqoop-Sandboxe Zeppelin-Sandbox.

La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).

Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:

Informazioni sulla versione dell'applicazione
emr-4.4.0 emr-4.3.0 emr-4.2.0 emr-4.1.0
AWS SDK per Java 1.10.271,10,271,10,27Non monitorato
Python Non monitoratoNon monitoratoNon monitoratoNon monitorato
Scala Non monitoratoNon monitoratoNon monitoratoNon monitorato
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink - - - -
Ganglia3.7.23.7.23.6.0 -
HBase - - - -
HCatalog1.0.0 - - -
Hadoop2.7.12.7.12.6.02.6.0
Hive1.0.01.0.01.0.01.0.0
Hudi - - - -
Hue3.7.13.7.13.7.13.7.1
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub - - - -
Livy - - - -
MXNet - - - -
Mahout0.11.10.11.00.11.00.11.0
Oozie - - - -
Oozie-Sandbox4.2.04.2.04.2.04.0.1
Phoenix - - - -
Pig0,14,00,14,00,14,00,14,0
Presto - - - -
Presto-Sandbox0.1360.1300.1250.119
Spark1.6.01.6.01.5.21.5.0
Sqoop - - - -
Sqoop-Sandbox1.4.6 - - -
TensorFlow - - - -
Tez - - - -
Trino (PrestoSQL) - - - -
Zeppelin - - - -
Zeppelin-Sandbox0.5.60,5,50,5,50.6.0-SNAPSHOT
ZooKeeper - - - -
ZooKeeper-Sabbiera - - - -

Note di rilascio della versione 4.4.0

Le seguenti note di rilascio includono informazioni per il rilascio di Amazon EMR 4.4.0.

Data di rilascio: 14 marzo 2016

Funzionalità
  • Aggiunto 1.0.0 HCatalog

  • Aggiunto Sqoop-Sandbox 1.4.6

  • Aggiornato a Presto 0.136

  • Aggiornato a Zeppelin 0.5.6

  • Aggiornato a Mahout 0.11.1

  • Abilitato dynamicResourceAllocation per impostazione predefinita.

  • Aggiunta una tabella di tutte le classificazioni della configurazione per il rilascio. Per ulteriori informazioni, consulta la tabella sulle classificazioni della configurazione in Configurazione delle applicazioni.

Problemi noti risolti dai rilasci precedenti
  • Risolto un problema per cui l'maximizeResourceAllocationimpostazione non riservava memoria sufficiente per i demoni ApplicationMaster YARN.

  • Risolto un problema rilevato con un DNS personalizzato. Se le voci in resolve.conf precedono le voci personalizzate fornite, allora le voci personalizzate non sono risolvibili. Questo comportamento è stato influenzato dai cluster in un VPC dove il server di nomi VPC di default era inserito come prima voce in resolve.conf.

  • Risolto un problema in cui il Python di default era spostato nella versione 2.7 e boto non era installato per quella versione.

  • Risolto un problema in cui i container YARN e le applicazioni Spark generavano un file unico del round robin database (rrd) di Ganglia il che portava al collegamento del primo disco al riempimento dell'istanza. Per via di questa correzione, i parametri a livello del container YARN sono stati disattivati così come quelli a livello dell'applicazione Spark.

  • Risolto un problema in log pusher che avrebbe cancellato tutte le cartelle vuote dei log. La conseguenza era che Hive CLI non era in grado di effettuare l'accesso perché log pusher cancellava la cartella vuota user sotto /var/log/hive.

  • Risolto un problema che riguardava le importazioni di Hive, che interessava il partizionamento e produceva un errore durante l'importazione.

  • Risolto un problema in cui EMRFS e s3-dist-cp non gestivano correttamente i nomi dei bucket che contengono punti.

  • Modificato un comportamento in EMRFS che prevedeva che nei bucket con funzione Versioni multiple abilitata il file marker _$folder$ non venisse creato in modo continuo, il che potrebbe portare a un miglioramento delle prestazioni per i bucket con funzione Versioni multiple abilitata.

  • Modificato il comportamento in EMRFS in modo tale che non utilizzi i file di istruzione tranne nei casi in cui la crittografia lato client sia abilitata. Se vuoi cancellare i file di istruzione mentre utilizzi la crittografia lato client, puoi configurare la proprietà emrfs-site.xml property, fs.s3.cse.cryptoStorageMode.deleteInstructionFiles.enabled, su true.

  • Modificata l'aggregazione dei log YARN per conservare i log nella destinazione dell'aggregazione per due giorni. La destinazione di default è l'archiviazione HDFS del cluster. Se desideri modificare la durata, modifica il valore di yarn.log-aggregation.retain-seconds utilizzando la classificazione della configurazione yarn-site durante la creazione del cluster. Come sempre, puoi salvare i log dell'applicazione in Amazon S3 utilizzando il parametro log-uri quando crei il cluster.

Patch applicate

Versioni dei componenti 4.4.0

I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con emr o aws. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.

Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo CommunityVersion-amzn-EmrVersion. EmrVersion inizia da 0. Ad esempio, se un componente della community open source denominato myapp-component con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come 2.2-amzn-2.

Componente Versione Descrizione
emr-ddb3.0.0Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop.
emr-goodies2.0.0Librerie utili per l'ecosistema Hadoop.
emr-kinesis3.1.0Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop.
emr-s3-dist-cp2.2.0Applicazione di copia distribuita ottimizzata per Amazon S3.
emrfs2.4.0Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop.
ganglia-monitor3.7.2Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia.
ganglia-metadata-collector3.7.2Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia.
ganglia-web3.7.1Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia.
hadoop-client2.7.1-amzn-1Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn".
hadoop-hdfs-datanode2.7.1-amzn-1Servizio a livello di nodo HDFS per lo storage di blocchi.
hadoop-hdfs-library2.7.1-amzn-1Libreria e client di riga di comando HDFS
hadoop-hdfs-namenode2.7.1-amzn-1Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi.
hadoop-httpfs-server2.7.1-amzn-1Endpoint HTTP per le operazioni HDFS.
hadoop-kms-server2.7.1-amzn-1Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider
hadoop-mapred2.7.1-amzn-1MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce
hadoop-yarn-nodemanager2.7.1-amzn-1Servizio YARN per la gestione di container su un singolo nodo.
hadoop-yarn-resourcemanager2.7.1-amzn-1Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite.
hcatalog-client1.0.0-amzn-3Client a riga di comando "hcat" per la manipolazione del server hcatalog.
hcatalog-server1.0.0-amzn-3Fornitura di servizi HCatalog, tabella e livello di gestione dello storage per applicazioni distribuite.
hcatalog-webhcat-server1.0.0-amzn-3Endpoint HTTP che fornisce un'interfaccia REST a HCatalog.
hive-client1.0.0-amzn-3Client a riga di comando Hive.
hive-metastore-server1.0.0-amzn-3Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop.
hive-server1.0.0-amzn-3Servizio per l'accettazione di query Hive come richieste Web.
hue-server3.7.1-amzn-5Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop
mahout-client0.11.1Librerie per Machine Learning.
mysql-server5.5Server di database MySQL.
oozie-client4.2.0Client a riga di comando Oozie.
oozie-server4.2.0Servizio per l'accettazione delle richieste di flusso di lavoro Oozie.
presto-coordinator0.136Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker.
presto-worker0.136Servizio per l'esecuzione di parti di una query.
pig-client0.14.0-amzn-0Client a riga di comando Pig.
spark-client1.6.0Client a riga di comando Spark.
spark-history-server1.6.0Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata.
spark-on-yarn1.6.0Motore di esecuzione in memoria per YARN.
spark-yarn-slave1.6.0Librerie Apache Spark necessarie per gli slave YARN.
sqoop-client1.4.6Client a riga di comando Apache Sqoop.
webserver2.4Server Apache HTTP.
zeppelin-server0.5.6-incubatingNotebook basato sul Web che consente l'analisi di dati interattiva.

Classificazioni di configurazione 4.4.0

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio hive-site.xml. Per ulteriori informazioni, consulta Configurazione delle applicazioni.

Classificazioni emr-4.4.0
Classificazioni Descrizione

capacity-scheduler

Modifica i valori nel file capacity-scheduler.xml di Hadoop.

core-site

Modifica i valori nel file core-site.xml di Hadoop.

emrfs-site

Modifica le impostazioni EMRFS.

hadoop-env

Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop.

hadoop-log4j

Modifica i valori nel file log4j.properties di Hadoop.

hdfs-encryption-zones

Configura le zone di crittografia HDFS.

hdfs-site

Modifica i valori nel file hdfs-site.xml di HDFS.

hcatalog-env

Modifica i valori nell'ambiente HCatalog.

hcatalog-server-jndi

Cambia i valori in HCatalog jndi.properties.

hcatalog-server-proto-hive-site

Cambia i valori nel file .xml HCatalog. proto-hive-site

hcatalog-webhcat-env

Modifica i valori nell'ambiente HCatalog HCat Web.

hcatalog-webhcat-log4j

Modifica i valori in HCatalog HCat log4j.properties di Web.

hcatalog-webhcat-site

Modificare i valori nel file webhcat-site.xml di HCatalog WebHCat.

hive-env

Modifica i valori nell'ambiente Hive.

hive-exec-log4j

Modifica i valori nel file hive-exec-log 4j.properties di Hive.

hive-log4j

Modifica i valori nel file hive-log4j.properties di Hive.

hive-site

Modifica i valori nel file hive-site.xml di Hive

hue-ini

Modifica i valori nel file ini di Hue

httpfs-env

Modifica i valori nell'ambiente HTTPFS.

httpfs-site

Modifica i valori nel file httpfs-site.xml di Hadoop.

hadoop-kms-acls

Modifica i valori nel file kms-acls.xml di Hadoop.

hadoop-kms-env

Modifica i valori nell'ambiente Hadoop KMS.

hadoop-kms-log4j

Modifica i valori nel file kms-log4j.properties di Hadoop.

hadoop-kms-site

Modifica i valori nel file kms-site.xml di Hadoop.

mapred-env

Modifica i valori nell'ambiente dell'applicazione. MapReduce

mapred-site

Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione.

oozie-env

Modifica i valori nell'ambiente di Oozie.

oozie-log4j

Modifica i valori nel file oozie-log4j.properties di Oozie.

oozie-site

Modifica i valori nel file oozie-site.xml di Oozie.

pig-properties

Modifica i valori nel file pig.properties di Pig.

pig-log4j

Modifica i valori nel file log4j.properties di Pig.

presto-log

Modifica i valori nel file log.properties di Presto.

presto-config

Modifica i valori nel file config.properties di Presto.

presto-connector-hive

Modifica i valori nel file hive.properties di Presto.

spark

Impostazioni Amazon EMR per Apache Spark.

spark-defaults

Modifica i valori nel file spark-defaults.conf di Spark.

spark-env

Modifica i valori nell'ambiente Spark.

spark-log4j

Modifica i valori nel file log4j.properties di Spark.

spark-metrics

Modifica i valori nel file metrics.properties di Spark.

sqoop-env

Modifica i valori nell'ambiente di Sqoop.

sqoop-oraoop-site

Modifica i valori nel file oraoop-site.xml di OraOop Sqoop.

sqoop-site

Modifica i valori nel file sqoop-site.xml di Sqoop.

yarn-env

Modifica i valori nell'ambiente YARN.

yarn-site

Modifica i valori nel file yarn-site.xml di YARN.

zeppelin-env

Modifica i valori nell'ambiente Zeppelin.