Amazon EMR versione 5.26.0 - Amazon EMR

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Amazon EMR versione 5.26.0

Versioni dell'applicazione 5.26.0

In questa versione sono supportate le seguenti applicazioni: Flink, Ganglia, HBase, HCatalog, Hadoop, Hive, Hue, JupyterHub, Livy, MXNet, Mahout, Oozie, Phoenix, Pig, Presto, Spark, Sqoop, TensorFlow, Tez, Zeppelin, e ZooKeeper.

La tabella seguente elenca le versioni delle applicazioni disponibili in questa versione di Amazon EMR e le versioni delle applicazioni nelle tre EMR versioni precedenti di Amazon (se applicabile).

Per una cronologia completa delle versioni delle applicazioni per ogni versione di AmazonEMR, consulta i seguenti argomenti:

Informazioni sulla versione dell'applicazione
emr-5.26.0 emr-5.25.0 emr-5.24.1 emr-5.24.0
AWS SDKper Java 1.11.5951,11,5661,11,5461,11,546
Python 2,7, 3,62.7, 3.62.7, 3.62.7, 3.6
Scala 211,122,11,122,11,122,11,12
AmazonCloudWatchAgent - - - -
Delta - - - -
Flink1.8.01.8.01.8.01.8.0
Ganglia3.7.23.7.23.7.23.7.2
HBase1.4.101.4.91.4.91.4.9
HCatalog2.3.52.3.52.3.42.3.4
Hadoop2,8,52,8,52,8,52,8,5
Hive2.3.52.3.52.3.42.3.4
Hudi - - - -
Hue4.4.04.4.04.4.04.4.0
Iceberg - - - -
JupyterEnterpriseGateway - - - -
JupyterHub0.9.60.9.60.9.60.9.6
Livy0,6,00,6,00,6,00,6,0
MXNet1.4.01.4.01.4.01.4.0
Mahout0.13.00.13.00.13.00.13.0
Oozie5.1.05.1.05.1.05.1.0
Phoenix4,14,24,14,14,14,14,14,1
Pig0.17.00.17.00.17.00.17.0
Presto0.2200.2200.2190.219
Spark2.4.32.4.32.4.22.4.2
Sqoop1.4.71.4.71.4.71.4.7
TensorFlow1.13.11.13.11.12.01.12.0
Tez0.9.20.9.20.9.10.9.1
Torino (Presto) SQL - - - -
Zeppelin0.8.10.8.10.8.10.8.1
ZooKeeper3.4.143.4.143.4.133.4.13

Note del rilascio 5.26.0

Le seguenti note di rilascio includono informazioni per la EMR versione 5.26.0 di Amazon. Le modifiche sono relative alla versione 5.25.0.

Data del rilascio iniziale: 8 agosto 2019

Ultimo aggiornamento: 19 agosto 2019

Aggiornamenti
  • AWS SDK for Java 1.11.595

  • HBase1,4,10

  • Phoenix 4.14.2

  • Connettori e driver:

    • DynamoDB Connector 4.11.0

    • MariaDB Connector 2.4.2

    • Driver Amazon Redshift JDBC 1.2.32.1056

Nuove funzionalità
  • (Beta) Con Amazon EMR 5.26.0, puoi avviare un cluster che si integra con Lake Formation. Questa integrazione fornisce un accesso granulare a livello di colonna a database e tabelle nel Glue Data Catalog. AWS Consente inoltre il single sign-on federato a EMR Notebook o Apache Zeppelin da un sistema di identità aziendale. Per ulteriori informazioni, consulta Integrazione di Amazon EMR con AWS Lake Formation (Beta).

  • (19 agosto 2019) L'accesso pubblico a EMR blocchi di Amazon è ora disponibile con tutte le EMR versioni di Amazon che supportano i gruppi di sicurezza. Il blocco dell'accesso pubblico è un'impostazione a livello di account applicata a ciascuna regione. AWS Il blocco dell'accesso pubblico impedisce l'avvio di un cluster quando un gruppo di sicurezza associato al cluster dispone di una regola che consente il traffico in entrata da IPv4 0.0.0.0/0 oIPv6:: /0 (accesso pubblico) su una porta, a meno che una porta non sia specificata come eccezione. La porta 22 è un'eccezione per impostazione predefinita. Per ulteriori informazioni, consulta Using Amazon EMR Block Public Access nella Amazon EMR Management Guide.

Modifiche, miglioramenti e problemi risolti
  • EMRNotebook

    • Con EMR 5.26.0 e versioni successive, EMR Notebooks supporta le librerie Python con ambito notebook oltre alle librerie Python predefinite. È possibile installare librerie con ambito notebook dall'editor di notebook senza dover ricreare un cluster o ricollegare un notebook a un cluster. Le librerie con ambito notebook vengono create in un ambiente Python virtuale in modo da essere applicate esclusivamente alla sessione di notebook corrente. Ciò consente di isolare le dipendenze dei notebook. Per ulteriori informazioni, consulta Using Notebook Scoped Libraries nella Amazon EMR Management Guide.

  • EMRFS

    • Puoi abilitare una funzionalità ETag di verifica (Beta) impostandola fs.s3.consistent.metadata.etag.verification.enabled sutrue. Con questa funzionalità, EMRFS utilizza Amazon S3 ETags per verificare che gli oggetti in lettura siano l'ultima versione disponibile. Questa funzionalità è utile nei casi d' read-after-updateuso in cui i file su Amazon S3 vengono sovrascritti mantenendo lo stesso nome. Questa funzionalità ETag di verifica attualmente non funziona con S3 Select. Per ulteriori informazioni, consulta Configurazione della visualizzazione coerente.

  • Spark

    • Le seguenti ottimizzazioni sono ora abilitate per impostazione predefinita: l'eliminazione dinamica delle partizioni, in DISTINCT precedenza, miglioramenti nell'inferenza delle statistiche del SQL piano per le query JOIN seguite daINTERSECT, l'appiattimento delle DISTINCT sottoquery scalari, il riordino ottimizzato dei join e il bloom filter join. Per ulteriori informazioni, consulta Ottimizzazione delle prestazioni Spark.

    • Migliorata la generazione del codice della fase per Sort Merge Join.

    • Migliorato il frammento di query e il riutilizzo delle sottoquery.

    • Miglioramenti per assegnare preventivamente gli executor all'avvio di Spark.

    • I join del filtro Bloom non vengono più applicati quando il lato più piccolo del join include un suggerimento per la trasmissione.

  • Tez

    • Risolto un problema con Tez. L'interfaccia utente di Tez ora funziona su un EMR cluster Amazon con più nodi primari.

Problemi noti
  • Le funzionalità migliorate di generazione del codice dell'intera fase per Sort Merge Join possono aumentare la pressione della memoria quando abilitate. Questa ottimizzazione migliora le prestazioni, ma può comportare tentativi multipli o errori di processo se spark.yarn.executor.memoryOverheadFactor non è regolato per fornire una memoria sufficiente. Per disabilitare questa funzionalità, imposta spark.sql.sortMergeJoinExec.extendedCodegen.enabled su false (falso).

  • Problema noto nei cluster con più nodi primari e autenticazione Kerberos

    Se esegui cluster con più nodi primari e l'autenticazione Kerberos nelle EMR versioni di Amazon 5.20.0 e successive, potresti riscontrare problemi con le operazioni del cluster come la scalabilità o l'invio di passaggi, dopo che il cluster è stato in esecuzione per qualche tempo. Il periodo di tempo dipende dal periodo di validità del ticket Kerberos definito dall'utente. Il problema di dimensionamento verso il basso influisce sia sulle richieste di scalabilità automatica che sulle richieste esplicite di dimensionamento verso il basso inviate dall'utente. Possono essere influenzate anche le operazioni cluster aggiuntive.

    Soluzione alternativa:

    • SSHcome hadoop utente del nodo primario principale del cluster con più nodi primari. EMR

    • Esegui il comando seguente per rinnovare il ticket Kerberos per l'utente hadoop.

      kinit -kt <keytab_file> <principal>

      In genere, il file keytab si trova in /etc/hadoop.keytab e l'entità principale si presenta nella forma di hadoop/<hostname>@<REALM>.

    Nota

    Questa soluzione alternativa sarà valida per il periodo di tempo in cui il ticket Kerberos è valido. La durata è di 10 ore per impostazione predefinita, ma può essere configurata dalle impostazioni Kerberos. È necessario eseguire nuovamente il comando sopra indicato una volta scaduto il ticket Kerberos.

Versioni dei componenti 5.26.0

I componenti che Amazon EMR installa con questa versione sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono esclusivi di Amazon EMR e vengono installati per processi e funzionalità di sistema. Questi solitamente iniziano con emr o aws. I pacchetti di applicazioni Big Data nella EMR versione più recente di Amazon sono in genere l'ultima versione disponibile nella community. Rendiamo disponibili le versioni per la community su Amazon EMR il più rapidamente possibile.

Alcuni componenti di Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo CommunityVersion-amzn-EmrVersion. EmrVersion inizia da 0. Ad esempio, se il componente della community open source denominato myapp-component con la versione 2.2 è stato modificato tre volte per essere incluso in diverse EMR versioni di Amazon, la sua versione di rilascio è elencata come2.2-amzn-2.

Componente Versione Descrizione
aws-sagemaker-spark-sdk1.2.4Amazon SageMaker Spark SDK
emr-ddb4.11.0Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop.
emr-goodies2.10.0Librerie utili per l'ecosistema Hadoop.
emr-kinesis3.4.0Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop.
emr-s3-dist-cp2.12.0Applicazione di copia distribuita ottimizzata per Amazon S3.
emr-s3-select1.3.0EMRConnettore S3Select
emrfs2.35.0Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop.
flink-client1.8.0Applicazioni e script client a riga di comando Apache Flink.
ganglia-monitor3.7.2Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia.
ganglia-metadata-collector3.7.2Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia.
ganglia-web3.7.1Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia.
hadoop-client2.8.5-amzn-4Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn".
hadoop-hdfs-datanode2.8.5-amzn-4HDFSservizio a livello di nodo per l'archiviazione dei blocchi.
hadoop-hdfs-library2.8.5-amzn-4HDFSclient e libreria da riga di comando
hadoop-hdfs-namenode2.8.5-amzn-4HDFSservizio per tracciare i nomi dei file e le posizioni dei blocchi.
hadoop-hdfs-journalnode2.8.5-amzn-4HDFSservizio per la gestione del diario del file system Hadoop su cluster HA.
hadoop-httpfs-server2.8.5-amzn-4HTTPHDFSendpoint per le operazioni.
hadoop-kms-server2.8.5-amzn-4Server di gestione delle chiavi crittografiche basato su Hadoop. KeyProvider API
hadoop-mapred2.8.5-amzn-4MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce
hadoop-yarn-nodemanager2.8.5-amzn-4YARNservizio per la gestione dei contenitori su un singolo nodo.
hadoop-yarn-resourcemanager2.8.5-amzn-4YARNservizio per l'allocazione e la gestione delle risorse del cluster e delle applicazioni distribuite.
hadoop-yarn-timeline-server2.8.5-amzn-4Servizio per il recupero di informazioni correnti e storiche per le applicazioni. YARN
hbase-hmaster1.4.10Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi.
hbase-region-server1.4.10Servizio per servire una o più HBase regioni.
hbase-client1.4.10HBaseclient da riga di comando.
hbase-rest-server1.4.10Servizio che fornisce un RESTful HTTP endpoint per. HBase
hbase-thrift-server1.4.10Servizio che fornisce un endpoint Thrift a. HBase
hcatalog-client2.3.5-amzn-0Client a riga di comando "hcat" per la manipolazione del server hcatalog.
hcatalog-server2.3.5-amzn-0Fornitura di serviziHCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite.
hcatalog-webhcat-server2.3.5-amzn-0HTTPendpoint che fornisce un'RESTinterfaccia a. HCatalog
hive-client2.3.5-amzn-0Client a riga di comando Hive.
hive-hbase2.3.5-amzn-0Client Hive-hbase.
hive-metastore-server2.3.5-amzn-0Servizio per l'accesso al metastore Hive, un archivio semantico che archivia i metadati per le operazioni su Hadoop. SQL
hive-server22.3.5-amzn-0Servizio per l'accettazione di query Hive come richieste Web.
hue-server4.4.0Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop
jupyterhub0.9.6Server multi-utente per notebook Jupyter
livy-server0.6.0-incubatingRESTinterfaccia per interagire con Apache Spark
nginx1.12.1nginx [engine x] è HTTP un server proxy e inverso
mahout-client0.13.0Librerie per Machine Learning.
mxnet1.4.0Una libreria flessibile, scalabile ed efficiente per il deep learning.
mysql-server5.5.54+Il mio server di SQL database.
nvidia-cuda9.2.88Driver Nvidia e kit di strumenti Cuda
oozie-client5.1.0Client a riga di comando Oozie.
oozie-server5.1.0Servizio per l'accettazione delle richieste di flusso di lavoro Oozie.
opencv3.4.0Open Source Computer Vision Library.
phoenix-library4.14.2- -1,4 HBaseLe librerie Phoenix per server e client
phoenix-query-server4.14.2- -1,4 HBaseUn server leggero che fornisce JDBC l'accesso, i buffer di protocollo e l'accesso ai JSON formati ad Avatica API
presto-coordinator0.220Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker.
presto-worker0.220Servizio per l'esecuzione di parti di una query.
pig-client0.17.0Client a riga di comando Pig.
r3.4.1The R Project for Statistical Computing
spark-client2.4.3Client a riga di comando Spark.
spark-history-server2.4.3Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata.
spark-on-yarn2.4.3Motore di esecuzione in memoria per. YARN
spark-yarn-slave2.4.3Librerie Apache Spark necessarie agli slave. YARN
sqoop-client1.4.7Client a riga di comando Apache Sqoop.
tensorflow1.13.1TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni.
tez-on-yarn0.9.2L'YARNapplicazione e le librerie tez.
webserver2.4.25+Server ApacheHTTP.
zeppelin-server0.8.1Notebook basato sul Web che consente l'analisi di dati interattiva.
zookeeper-server3.4.14Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo.
zookeeper-client3.4.14ZooKeeper client a riga di comando.

Classificazioni di configurazione 5.26.0

Le classificazioni di configurazione consentono di personalizzare le applicazioni. Questi spesso corrispondono a un XML file di configurazione per l'applicazione, ad esempiohive-site.xml. Per ulteriori informazioni, consulta Configurazione delle applicazioni.

Classificazioni emr-5.26.0
Classificazioni Descrizione

capacity-scheduler

Modifica i valori nel file capacity-scheduler.xml di Hadoop.

container-log4j

Modifica i valori nel file container-log4j.properties YARN di Hadoop.

core-site

Modifica i valori nel file core-site.xml di Hadoop.

emrfs-site

EMRFSModificare le impostazioni.

flink-conf

Modifica le impostazione flink-conf.yaml.

flink-log4j

Modifica le impostazioni Flink log4j.properties.

flink-log4j-yarn-session

Modificare le impostazioni di Flink log4 j-yarn-session .properties.

flink-log4j-cli

Modifica le impostazioni Flink log4j-cli.properties.

hadoop-env

Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop.

hadoop-log4j

Modifica i valori nel file log4j.properties di Hadoop.

hadoop-ssl-server

Modifica la configurazione server ssl hadoop

hadoop-ssl-client

Modifica la configurazione client ssl hadoop

hbase

Impostazioni EMR curate da Amazon per Apache. HBase

hbase-env

Modifica i valori nell'ambienteHBase.

hbase-log4j

Modifica i valori nel file HBase hbase-log4j.properties.

hbase-metrics

Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase

hbase-policy

Cambia i valori nel HBase file hbase-policy.xml.

hbase-site

Modifica i valori nel HBase file hbase-site.xml.

hdfs-encryption-zones

Configura le zone di HDFS crittografia.

hdfs-site

Modifica i valori in HDFS's hdfs-site.xml.

hcatalog-env

Cambia i valori nell'HCatalogambiente.

hcatalog-server-jndi

Cambia i valori in HCatalog jndi.properties.

hcatalog-server-proto-hive-site

Cambia i valori nel file .xmlHCatalog. proto-hive-site

hcatalog-webhcat-env

Cambia i valori nell'ambiente ebHCat di HCatalog W.

hcatalog-webhcat-log4j2

Modifica i valori in HCatalog ebHCat log4j2.properties di W.

hcatalog-webhcat-site

Modifica i valori nel file webhcat-site.xml di HCatalog W. ebHCat

hive-beeline-log4j2

Modifica i valori nel file beeline-log4j2.properties di Hive.

hive-parquet-logging

Modifica i valori nel file parquet-logging.properties di Hive.

hive-env

Modifica i valori nell'ambiente Hive.

hive-exec-log4j2

Modifica i valori nel file hive-exec-log 4j2.properties di Hive.

hive-llap-daemon-log4j2

Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log

hive-log4j2

Modifica i valori nel file hive-log4j2.properties di Hive.

hive-site

Modifica i valori nel file hive-site.xml di Hive

hiveserver2-site

Modifica i valori nel file hiveserver2-site.xml di Hive Server2

hue-ini

Modifica i valori nel file ini di Hue

httpfs-env

Modifica i valori nell'ambiente. HTTPFS

httpfs-site

Modifica i valori nel file httpfs-site.xml di Hadoop.

hadoop-kms-acls

Modifica i valori nel file kms-acls.xml di Hadoop.

hadoop-kms-env

Modifica i valori nell'ambiente Hadoop. KMS

hadoop-kms-log4j

Modifica i valori nel file kms-log4j.properties di Hadoop.

hadoop-kms-site

Modifica i valori nel file kms-site.xml di Hadoop.

jupyter-notebook-conf

Modifica i valori nel file jupyter_notebook_config.py di Jupyter Notebook.

jupyter-hub-conf

Modificare i valori nel JupyterHubs file jupyterhub_config.py.

jupyter-s3-conf

Configura la persistenza di S3 del notebook Jupyter.

jupyter-sparkmagic-conf

Modifica i valori nel file config.json di Sparkmagic.

livy-conf

Modifica i valori nel file livy.conf di Livy.

livy-env

Modifica i valori nell'ambiente Livy.

livy-log4j

Modifica le impostazioni Livy log4j.properties.

mapred-env

Modifica i valori nell'ambiente dell' MapReduce applicazione.

mapred-site

Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione.

oozie-env

Modifica i valori nell'ambiente di Oozie.

oozie-log4j

Modifica i valori nel file oozie-log4j.properties di Oozie.

oozie-site

Modifica i valori nel file oozie-site.xml di Oozie.

phoenix-hbase-metrics

Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix.

phoenix-hbase-site

Modifica i valori nel file hbase-site.xml di Phoenix.

phoenix-log4j

Modifica i valori nel file log4j.properties di Phoenix.

phoenix-metrics

Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix.

pig-env

Change values in the Pig environment.

pig-properties

Modifica i valori nel file pig.properties di Pig.

pig-log4j

Modifica i valori nel file log4j.properties di Pig.

presto-log

Modifica i valori nel file log.properties di Presto.

presto-config

Modifica i valori nel file config.properties di Presto.

presto-password-authenticator

Modifica i valori nel file password-authenticator.properties di Presto.

presto-env

Modifica i valori nel file presto-env.sh di Presto.

presto-node

Modifica i valori nel file node.properties di Presto.

presto-connector-blackhole

Modifica i valori nel file blackhole.properties di Presto.

presto-connector-cassandra

Modifica i valori nel file cassandra.properties di Presto.

presto-connector-hive

Modifica i valori nel file hive.properties di Presto.

presto-connector-jmx

Modifica i valori nel file jmx.properties di Presto.

presto-connector-kafka

Modifica i valori nel file kafka.properties di Presto.

presto-connector-localfile

Modifica i valori nel file localfile.properties di Presto.

presto-connector-memory

Modifica i valori nel file memory.properties di Presto.

presto-connector-mongodb

Modifica i valori nel file mongodb.properties di Presto.

presto-connector-mysql

Modifica i valori nel file mysql.properties di Presto.

presto-connector-postgresql

Modifica i valori nel file postgresql.properties di Presto.

presto-connector-raptor

Modifica i valori nel file raptor.properties di Presto.

presto-connector-redis

Modifica i valori nel file redis.properties di Presto.

presto-connector-redshift

Modifica i valori nel file redshift.properties di Presto.

presto-connector-tpch

Modifica i valori nel file tpch.properties di Presto.

presto-connector-tpcds

Modifica i valori nel file tpcds.properties di Presto.

recordserver-env

Modifica i valori nell'EMR RecordServer ambiente.

recordserver-conf

Modifica i valori nel file EMR RecordServer erver.properties.

recordserver-log4j

Modifica i valori nel file EMR RecordServer log4j.properties.

spark

Impostazioni EMR curate da Amazon per Apache Spark.

spark-defaults

Modifica i valori nel file spark-defaults.conf di Spark.

spark-env

Modifica i valori nell'ambiente Spark.

spark-hive-site

Modifica i valori nel file hive-site.xml di Spark

spark-log4j

Modifica i valori nel file log4j.properties di Spark.

spark-metrics

Modifica i valori nel file metrics.properties di Spark.

sqoop-env

Modifica i valori nell'ambiente di Sqoop.

sqoop-oraoop-site

Modifica i valori nel file oraoop-site.xml di Sqoop OraOop.

sqoop-site

Modifica i valori nel file sqoop-site.xml di Sqoop.

tez-site

Modifica i valori nel file tez-site.xml file di Tez.

yarn-env

Modifica i valori nell'ambiente. YARN

yarn-site

Modifica i valori nel YARN file yarn-site.xml.

zeppelin-env

Modifica i valori nell'ambiente Zeppelin.

zookeeper-config

Modifica i valori nel ZooKeeper file zoo.cfg.

zookeeper-log4j

Modifica i valori nel file ZooKeeper log4j.properties.