Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Rilascio 5.12.0 di Amazon EMR
Versioni dell'applicazione 5.12.0
In questa versione sono supportate le seguenti applicazioni: Flink
La seguente tabella elenca le versioni dell'applicazione disponibili in questo rilascio di Amazon EMR e quelle nei precedenti tre rilasci di Amazon EMR (quando applicabile).
Per la cronologia completa delle versioni dell'applicazione di ogni rilascio di Amazon EMR, fai riferimento ai seguenti argomenti:
emr-5.12.0 | emr-5.11.4 | emr-5.11.3 | emr-5.11.2 | |
---|---|---|---|---|
AWS SDK per Java | 1.11.267 | 1,11238 | 1,11238 | 1,11238 |
Python | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 | 2,7, 3,4 |
Scala | 2.11,8 | 211,8 | 211,8 | 211,8 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | - | - | - | - |
Flink | 1.4.0 | 1.3.2 | 1.3.2 | 1.3.2 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 1.4.0 | 1.3.1 | 1.3.1 | 1.3.1 |
HCatalog | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.2 |
Hadoop | 28.3 | 2,7,3 | 2,7,3 | 2,7,3 |
Hive | 2.3.2 | 2.3.2 | 2.3.2 | 2.3.2 |
Hudi | - | - | - | - |
Hue | 4.1.0 | 4.0.1 | 4.0.1 | 4.0.1 |
Iceberg | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | - | - | - | - |
Livy | 0,40 | 0,40 | 0,40 | 0,40 |
MXNet | 1.0.0 | 0.12.0 | 0.12.0 | 0.12.0 |
Mahout | 0.13.0 | 0.13.0 | 0.13.0 | 0.13.0 |
Oozie | 4.3.0 | 4.3.0 | 4.3.0 | 4.3.0 |
Phoenix | 4.13.0 | 4.11.0 | 4.11.0 | 4.11.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.188 | 0.187 | 0.187 | 0.187 |
Spark | 2.2.1 | 2.2.1 | 2.2.1 | 2.2.1 |
Sqoop | 1.4.6 | 1.4.6 | 1.4.6 | 1.4.6 |
TensorFlow | - | - | - | - |
Tez | 0.8.4 | 0.8.4 | 0.8.4 | 0.8.4 |
Trino (PrestoSQL) | - | - | - | - |
Zeppelin | 0.7.3 | 0.7.3 | 0.7.3 | 0.7.3 |
ZooKeeper | 3.4.10 | 3.4.10 | 3.4.10 | 3.4.10 |
Note di rilascio 5.12.0
Le seguenti note di rilascio includono informazioni relative al rilascio di Amazon EMR 5.12.0. Le modifiche sono relative alla versione 5.11.1.
Aggiornamenti
AWS SDK per Java 1.11.238 ⇒ 1.11.267. Per ulteriori informazioni, consulta AWS SDK for Java Change Log GitHub on
. Hadoop 2.7.3 ⇒ 2.8.3. Per ulteriori informazioni, consulta Rilasci di Apache Hadoop
. Flink 1.3.2 ⇒ 1.4.0. Per ulteriori informazioni, consulta l'Annuncio del rilascio di Apache Flink 1.4.0
. HBase 1.3.1 ⇒ 1.4.0. Per ulteriori informazioni, consulta l'annuncio di HBase rilascio
. Hue 4.0.1 ⇒ 4.1.0. Per ulteriori informazioni, consulta le Note di rilascio
. MxNet 0.12.0 ⇒ 1.0.0. Per ulteriori informazioni, vedere Change Log on. MXNet
GitHub Presto 0.187 ⇒ 0.188. Per ulteriori informazioni, consulta le Note di rilascio
.
Modifiche, miglioramenti e problemi risolti
Hadoop
La proprietà
yarn.resourcemanager.decommissioning.timeout
è stata modificata inyarn.resourcemanager.nodemanager-graceful-decommission-timeout-secs
. È possibile utilizzare questa proprietà per personalizzare il dimensionamento verso il basso del cluster. Per maggiori informazioni, consulta Dimensionamento verso il basso del cluster nella Guida alla gestione di Amazon EMR.L'interfaccia CLI di Hadoop ha aggiunto l'opzione
-d
per il comandocp
(copia), che specifica la copia diretta. Questo comando può essere utilizzato per evitare di creare un file.COPYING
intermediario, rendendo più veloce la copia dei dati in Amazon S3. Per ulteriori informazioni, consulta HADOOP-12384.
Pig
È stato aggiunto
pig-env
, che semplifica la configurazione delle proprietà dell'ambiente Pig. Per ulteriori informazioni, consulta Configurazione delle applicazioni.
Presto
Aggiunta la classificazione della configurazione
presto-connector-redshift
, che puoi utilizzare per configurare i valori nel file di configurazioneredshift.properties
di Presto. Per ulteriori informazioni, consulta Connettore Redshiftnella documentazione di Presto e Configurazione delle applicazioni. Il supporto Presto per EMRFS è stato aggiunto ed è la configurazione predefinita. Le versioni precedenti di Amazon EMR utilizzavano PrestOS3FileSystem, che era l'unica opzione. Per ulteriori informazioni, consulta FileSystemConfigurazione EMRFS e PrestOS3.
Nota
Se esegui una query sui dati sottostanti in Amazon S3 con Amazon EMR versione 5.12.0, possono verificarsi errori di Presto. Questo avviene perché Presto non riesce a raccogliere i valori di classificazione della configurazione da
emrfs-site.xml
. Come soluzione alternativa, crea una sottodirectoryemrfs
inusr/lib/presto/plugin/hive-hadoop2/
e crea un collegamento simbolico inusr/lib/presto/plugin/hive-hadoop2/emrfs
sul file/usr/share/aws/emr/emrfs/conf/emrfs-site.xml
esistente. Quindi riavvia il processo presto-server (sudo presto-server stop
seguito dasudo presto-server start
).
Spark
SPARK-22036 con backport: la moltiplicazione a volte restituisce
un valore nullo. BigDecimal
Problemi noti
MXNet non include le librerie OpenCV.
SparkR non è disponibile per i cluster creati utilizzando un'AMI personalizzata perché R non è installato per impostazione predefinita sui nodi del cluster.
Versioni dei componenti 5.12.0
I componenti che Amazon EMR installa con questo rilascio sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono specifici per Amazon EMR e installati per processi e caratteristiche del sistema. Questi solitamente iniziano con emr
o aws
. I pacchetti di applicazione sui Big data del rilascio di Amazon EMR più recente sono di solito le versioni più recenti reperibili nella community. Mettiamo a disposizione i rilasci della community in Amazon EMR il più rapidamente possibile.
Alcuni componenti in Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo
. CommunityVersion
-amzn-EmrVersion
inizia da 0. Ad esempio, se un componente della community open source denominato EmrVersion
myapp-component
con versione 2.2 è stato modificato tre volte per essere incluso in rilasci diversi di Amazon EMR, tale versione di rilascio si presenta come 2.2-amzn-2
.
Componente | Versione | Descrizione |
---|---|---|
aws-sagemaker-spark-sdk | 1.0.1 | SageMaker SDK Amazon Spark |
emr-ddb | 4.5.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. |
emr-goodies | 2.4.0 | Librerie utili per l'ecosistema Hadoop. |
emr-kinesis | 3.4.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. |
emr-s3-dist-cp | 2.9.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. |
emrfs | 2.21.0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. |
flink-client | 1.4.0 | Applicazioni e script client a riga di comando Apache Flink. |
ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. |
ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. |
ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. |
hadoop-client | 2.8.3-amzn-0 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". |
hadoop-hdfs-datanode | 2.8.3-amzn-0 | Servizio a livello di nodo HDFS per lo storage di blocchi. |
hadoop-hdfs-library | 2.8.3-amzn-0 | Libreria e client di riga di comando HDFS |
hadoop-hdfs-namenode | 2.8.3-amzn-0 | Servizio HDFS per tenere traccia dei nomi di file e delle posizioni dei blocchi. |
hadoop-httpfs-server | 2.8.3-amzn-0 | Endpoint HTTP per le operazioni HDFS. |
hadoop-kms-server | 2.8.3-amzn-0 | Server di gestione delle chiavi crittografiche basato sull'API di Hadoop. KeyProvider |
hadoop-mapred | 2.8.3-amzn-0 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce |
hadoop-yarn-nodemanager | 2.8.3-amzn-0 | Servizio YARN per la gestione di container su un singolo nodo. |
hadoop-yarn-resourcemanager | 2.8.3-amzn-0 | Servizio YARN per l'allocazione e la gestione delle risorse di cluster e delle applicazioni distribuite. |
hadoop-yarn-timeline-server | 2.8.3-amzn-0 | Servizio per il recupero di informazioni correnti e della cronologia per applicazioni YARN. |
hbase-hmaster | 1.4.0 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. |
hbase-region-server | 1.4.0 | Servizio per servire una o più HBase regioni. |
hbase-client | 1.4.0 | HBase client da riga di comando. |
hbase-rest-server | 1.4.0 | Servizio che fornisce un endpoint RESTful HTTP per. HBase |
hbase-thrift-server | 1.4.0 | Servizio che fornisce un endpoint Thrift a. HBase |
hcatalog-client | 2.3.2-amzn-1 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. |
hcatalog-server | 2.3.2-amzn-1 | Fornitura di servizi HCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. |
hcatalog-webhcat-server | 2.3.2-amzn-1 | Endpoint HTTP che fornisce un'interfaccia REST a HCatalog. |
hive-client | 2.3.2-amzn-1 | Client a riga di comando Hive. |
hive-hbase | 2.3.2-amzn-1 | Client Hive-hbase. |
hive-metastore-server | 2.3.2-amzn-1 | Servizio per l'accesso al metastore Hive, un repository semantico per lo storage di metadati per SQL sulle operazioni Hadoop. |
hive-server2 | 2.3.2-amzn-1 | Servizio per l'accettazione di query Hive come richieste Web. |
hue-server | 4.1.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop |
livy-server | 0.4.0-incubating | Interfaccia REST per l'interazione con Apache Spark |
mahout-client | 0.13.0 | Librerie per Machine Learning. |
mxnet | 1.0.0 | Una libreria flessibile, scalabile ed efficiente per il deep learning. |
mysql-server | 5.5.54+ | Server di database MySQL. |
nvidia-cuda | 9.1.85 | Driver Nvidia e kit di strumenti Cuda |
oozie-client | 4.3.0 | Client a riga di comando Oozie. |
oozie-server | 4.3.0 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. |
phoenix-library | 4.13.0- -1,4 HBase | Le librerie Phoenix per server e client |
phoenix-query-server | 4.13.0- -1,4 HBase | Un server leggero che fornisce accesso JDBC nonché buffer di protocollo e accesso in formato JSON all'API Avatica |
presto-coordinator | 0.188 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. |
presto-worker | 0.188 | Servizio per l'esecuzione di parti di una query. |
pig-client | 0.17.0 | Client a riga di comando Pig. |
spark-client | 2.2.1 | Client a riga di comando Spark. |
spark-history-server | 2.2.1 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. |
spark-on-yarn | 2.2.1 | Motore di esecuzione in memoria per YARN. |
spark-yarn-slave | 2.2.1 | Librerie Apache Spark necessarie per gli slave YARN. |
sqoop-client | 1.4.6 | Client a riga di comando Apache Sqoop. |
tez-on-yarn | 0.8.4 | L'applicazione e le librerie tez YARN. |
webserver | 2.4.25+ | Server Apache HTTP. |
zeppelin-server | 0.7.3 | Notebook basato sul Web che consente l'analisi di dati interattiva. |
zookeeper-server | 3.4.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. |
zookeeper-client | 3.4.10 | ZooKeeper client a riga di comando. |
Classificazioni di configurazione 5.12.0
Le classificazioni di configurazione consentono di personalizzare le applicazioni. Esse corrispondono spesso a un file XML di configurazione per l'applicazione, ad esempio hive-site.xml
. Per ulteriori informazioni, consulta Configurazione delle applicazioni.
Classificazioni | Descrizione |
---|---|
capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. |
core-site | Modifica i valori nel file core-site.xml di Hadoop. |
emrfs-site | Modifica le impostazioni EMRFS. |
flink-conf | Modifica le impostazione flink-conf.yaml. |
flink-log4j | Modifica le impostazioni Flink log4j.properties. |
flink-log4j-yarn-session | Modifica le impostazioni di Flink log4 j-yarn-session .properties. |
flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. |
hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. |
hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. |
hadoop-ssl-server | Modifica la configurazione server ssl hadoop |
hadoop-ssl-client | Modifica la configurazione client ssl hadoop |
hbase | Impostazioni curate da Amazon EMR per Apache. HBase |
hbase-env | Modifica i valori nell'ambiente. HBase |
hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. |
hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase |
hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. |
hbase-site | Modifica i valori nel HBase file hbase-site.xml. |
hdfs-encryption-zones | Configura le zone di crittografia HDFS. |
hdfs-site | Modifica i valori nel file hdfs-site.xml di HDFS. |
hcatalog-env | Modifica i valori nell' HCatalogambiente. |
hcatalog-server-jndi | Modifica i valori in HCatalog jndi.properties. |
hcatalog-server-proto-hive-site | Cambia i valori nel file .xml HCatalog. proto-hive-site |
hcatalog-webhcat-env | Modifica i valori nell'ambiente HCatalog HCat Web. |
hcatalog-webhcat-log4j2 | Modifica i valori nelle proprietà HCatalog HCat log4j2.properties di Web. |
hcatalog-webhcat-site | Modifica i valori nel file webhcat-site.xml di HCatalog WebHCat. |
hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. |
hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. |
hive-env | Modifica i valori nell'ambiente Hive. |
hive-exec-log4j2 | Modifica i valori nel file hive-exec-log 4j2.properties di Hive. |
hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log |
hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. |
hive-site | Modifica i valori nel file hive-site.xml di Hive |
hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 |
hue-ini | Modifica i valori nel file ini di Hue |
httpfs-env | Modifica i valori nell'ambiente HTTPFS. |
httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. |
hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. |
hadoop-kms-env | Modifica i valori nell'ambiente Hadoop KMS. |
hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. |
hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. |
livy-conf | Modifica i valori nel file livy.conf di Livy. |
livy-env | Modifica i valori nell'ambiente Livy. |
livy-log4j | Modifica le impostazioni Livy log4j.properties. |
mapred-env | Modifica i valori nell'ambiente dell'applicazione. MapReduce |
mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. |
oozie-env | Modifica i valori nell'ambiente di Oozie. |
oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. |
oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. |
phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. |
phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. |
phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. |
phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. |
pig-env | Change values in the Pig environment. |
pig-properties | Modifica i valori nel file pig.properties di Pig. |
pig-log4j | Modifica i valori nel file log4j.properties di Pig. |
presto-log | Modifica i valori nel file log.properties di Presto. |
presto-config | Modifica i valori nel file config.properties di Presto. |
presto-env | Modifica i valori nel file presto-env.sh di Presto. |
presto-node | Modifica i valori nel file node.properties di Presto. |
presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. |
presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. |
presto-connector-hive | Modifica i valori nel file hive.properties di Presto. |
presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. |
presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. |
presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. |
presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. |
presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. |
presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. |
presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. |
presto-connector-redis | Modifica i valori nel file redis.properties di Presto. |
presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. |
presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. |
spark | Impostazioni Amazon EMR per Apache Spark. |
spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. |
spark-env | Modifica i valori nell'ambiente Spark. |
spark-hive-site | Modifica i valori nel file hive-site.xml di Spark |
spark-log4j | Modifica i valori nel file log4j.properties di Spark. |
spark-metrics | Modifica i valori nel file metrics.properties di Spark. |
sqoop-env | Modifica i valori nell'ambiente di Sqoop. |
sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di OraOop Sqoop. |
sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. |
tez-site | Modifica i valori nel file tez-site.xml file di Tez. |
yarn-env | Modifica i valori nell'ambiente YARN. |
yarn-site | Modifica i valori nel file yarn-site.xml di YARN. |
zeppelin-env | Modifica i valori nell'ambiente Zeppelin. |
zookeeper-config | Cambia i valori nel ZooKeeper file zoo.cfg. |
zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. |