Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Amazon EMR versione 6.9.0
Versioni dell'applicazione 6.9.0
In questa versione sono supportate le seguenti applicazioni: Delta
La tabella seguente elenca le versioni delle applicazioni disponibili in questa versione di Amazon EMR e le versioni delle applicazioni nelle tre EMR versioni precedenti di Amazon (se applicabile).
Per una cronologia completa delle versioni delle applicazioni per ogni versione di AmazonEMR, consulta i seguenti argomenti:
emr-6.9.0 | emr-6.8.1 | emr-6.8.0 | emr-6.7.0 | |
---|---|---|---|---|
AWS SDKper Java | 1.12.170 | 1,12,170 | 1,12,170 | 1,12,170 |
Python | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 | 2,7, 3,7 |
Scala | 2,12,15 | 2,12,15 | 2,12,15 | 2,12,15 |
AmazonCloudWatchAgent | - | - | - | - |
Delta | 2.1.0 | - | - | - |
Flink | 1.15.2 | 1.15.1 | 1.15.1 | 1,14,2 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2,4,13 | 2,4,12 | 2,4,12 | 2.4.4 |
HCatalog | 3.1.3 | 3.1.3 | 3.1.3 | 3.1.3 |
Hadoop | 33,3 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.3 | 3.1.3 | 3.1.3 | 3.1.3 |
Hudi | 0.12.1-amzn-0 | 0.11.1-amzn-0 | 0.11.1-amzn-0 | 0.11.0-amzn-0 |
Hue | 4.10.0 | 4.10.0 | 4.10.0 | 4.10.0 |
Iceberg | 0.14.1-amzn-0 | 0.14.0-amzn-0 | 0.14.0-amzn-0 | 0.13.1-amzn-0 |
JupyterEnterpriseGateway | 2.6.0 | 2.1.0 | 2.1.0 | 2.1.0 |
JupyterHub | 1.4.1 | 1.4.1 | 1.4.1 | 1.4.1 |
Livy | 0.7.1 | 0.7.1 | 0.7.1 | 0.7.1 |
MXNet | 1.9.1 | 1.9.1 | 1.9.1 | 1.8.0 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.1 |
Phoenix | 5.1.2 | 5.1.2 | 5.1.2 | 5.1.2 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0,2276 | 0,273 | 0,273 | 0,272 |
Spark | 3.3.0 | 3.3.0 | 3.3.0 | 3.2.1 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.10.0 | 2,9,1 | 29.1 | 2.4.1 |
Tez | 0,10,2 | 0.9.2 | 0.9.2 | 0.9.2 |
Torino (Presto) SQL | 398 | 388 | 388 | 378 |
Zeppelin | 0,10,1 | 0,10,1 | 0,10,1 | 0.10.0 |
ZooKeeper | 3.5.10 | 3.5.10 | 3.5.10 | 3,5,7 |
Note del rilascio 6.9.0
Le seguenti note di rilascio includono informazioni per la EMR versione 6.9.0 di Amazon. Le modifiche sono relative alla EMR versione 6.8.0 di Amazon. Per ulteriori informazioni sulla tempistica di rilascio, consulta il log delle modifiche.
Nuove caratteristiche
La EMR versione 6.9.0 di Amazon supporta Apache Spark RAPIDS 22.08.0, Apache Hudi 0.12.1, Apache Iceberg 0.14.1, Trino 398 e Tez 0.10.2.
La EMR versione 6.9.0 di Amazon include una nuova applicazione open source, la 2.1.0. Delta Lake
L'integrazione di Amazon Redshift per Apache Spark è inclusa nelle EMR versioni di Amazon 6.9.0 e successive. In precedenza uno strumento open source, l'integrazione nativa è un connettore Spark che è possibile utilizzare per creare applicazioni Apache Spark in grado di leggere e scrivere dati in Amazon Redshift e Amazon Redshift Serverless. Per ulteriori informazioni, consulta Utilizzo dell'integrazione di Amazon Redshift per Apache Spark con Amazon EMR .
La EMR versione 6.9.0 di Amazon aggiunge il supporto per l'archiviazione dei log su Amazon S3 durante la scalabilità del cluster. In precedenza, era possibile archiviare i file di log in Amazon S3 solo durante la terminazione del cluster. La nuova funzionalità garantisce la persistenza su Amazon S3 dei file di log generati nel cluster anche dopo la terminazione del nodo. Per ulteriori informazioni, consulta Configurazione della registrazione e del debug di cluster.
Per supportare le query di lunga durata, Trino ora include un meccanismo di esecuzione con tolleranza ai guasti. L'esecuzione con tolleranza ai guasti mitiga gli errori delle query ritentando le query non riuscite o le attività dei loro componenti. Per ulteriori informazioni, consulta Esecuzione con tolleranza ai guasti in Trino.
Puoi utilizzare Apache Flink su Amazon EMR per l'unificazione
BATCH
e l'STREAM
elaborazione di tabelle Apache Hive o metadati di qualsiasi tablesource Flink come Iceberg, Kinesis o Kafka. Puoi specificare AWS Glue Data Catalog come metastore per Flink utilizzando AWS Management Console, AWS CLI o Amazon. EMR API Per ulteriori informazioni, consulta Configurazione di Flink in Amazon EMR.Ora puoi specificare AWS Identity and Access Management (IAM) ruoli di runtime e controllo degli accessi AWS Lake Formation basato per le query Apache Spark, Apache Hive e Presto su Amazon su EMR cluster EC2 con Amazon Studio. SageMaker Per ulteriori informazioni, consulta Configurare i ruoli di runtime per Amazon EMR Steps.
Problemi noti
Per la EMR versione 6.9.0 di Amazon, Trino non funziona su cluster abilitati per Apache Ranger. Se hai la necessità di utilizzare Trino con Ranger, contatta il AWS Support
. Se utilizzi l'integrazione di Amazon Redshift per Apache Spark e disponi di un'indicazione temporale time, timez, timestamp o timestamptz con una precisione di microsecondi in formato Parquet, il connettore arrotonda i valori temporali al valore in millisecondi più vicino. Come soluzione alternativa, utilizza il parametro
unload_s3_format
del formato di scaricamento del testo.Quando usi Spark con la formattazione della posizione delle partizioni Hive per leggere i dati in Amazon S3 e esegui Spark sulle EMR versioni di Amazon da 5.30.0 a 5.36.0 e da 6.2.0 a 6.9.0, potresti riscontrare un problema che impedisce al cluster di leggere correttamente i dati. Ciò può accadere se le partizioni presentano tutte le seguenti caratteristiche:
-
Due o più partizioni vengono scansionate dalla stessa tabella.
-
Almeno un percorso di directory di partizione è il prefisso di almeno un altro percorso della directory di partizione, ad esempio
s3://bucket/table/p=a
è un prefisso dis3://bucket/table/p=a b
. -
Il primo carattere che segue il prefisso nell'altra directory di partizione ha un valore -8 inferiore al carattere (U+002F). UTF
/
Ad esempio, rientra in questa categoria il carattere dello spazio (U+0020) che compare tra a e b ins3://bucket/table/p=a b
. Tieni presente che esistono altri 14 caratteri non di controllo:!"#$%&‘()*+,-
. Per ulteriori informazioni, vedete la tabella di codifica UTF-8e i caratteri Unicode.
Per ovviare a questo problema, imposta la configurazione di
spark.sql.sources.fastS3PartitionDiscovery.enabled
sufalse
nella classificazione dispark-defaults
.-
Le connessioni ai EMR cluster Amazon da Amazon SageMaker Studio possono fallire in modo intermittente con un codice di risposta 403 Forbidden. Questo errore si verifica quando la configurazione del IAM ruolo nel cluster richiede più di 60 secondi. Come soluzione alternativa, puoi installare una EMR patch Amazon per abilitare i nuovi tentativi e aumentare il timeout a un minimo di 300 secondi. Completa la seguente procedura per applicare l'operazione bootstrap all'avvio del cluster.
Scarica lo script e RPM i file di bootstrap dal seguente Amazon URIs S3.
s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/replace-rpms.sh s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/gcsc/emr-secret-agent-1.18.0-SNAPSHOT20221121212949.noarch.rpm
Carica i file della fase precedente in un bucket Amazon S3 di tua proprietà. Il bucket deve trovarsi nello stesso Regione AWS punto in cui intendi avviare il cluster.
Includi la seguente azione di bootstrap all'avvio del clusterEMR. Replace (Sostituisci)
bootstrap_URI
eRPM_URI
con il corrispondente URIs di Amazon S3.--bootstrap-actions "Path=
bootstrap_URI
,Args=[RPM_URI
]"
Con le EMR versioni di Amazon da 5.36.0 e da 6.6.0 a 6.9.0,
SecretAgent
i componenti delRecordServer
servizio potrebbero subire una perdita di dati di registro a causa di una configurazione errata del modello di nome dei file nelle proprietà di Log4j2. Ca sua della configurazione errata, i componenti generano un solo file di log al giorno. Quando si applica la strategia di rotazione, sovrascrive il file esistente invece di generare un nuovo file di log come previsto. Come soluzione alternativa, utilizza un'azione bootstrap per generare file di log ogni ora e accoda un numero intero con incremento automatico nel nome file per gestire la rotazione.Per le versioni da Amazon da EMR 6.6.0 a 6.9.0, usa la seguente azione di bootstrap quando avvii un cluster.
‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-6x/replace-puppet.sh,Args=[]"
Per Amazon EMR 5.36.0, usa la seguente azione di bootstrap quando avvii un cluster.
‑‑bootstrap‑actions "Path=s3://emr-data-access-control-us-east-1/customer-bootstrap-actions/log-rotation-emr-5x/replace-puppet.sh,Args=[]"
-
Apache Flink fornisce FileSystem connettori S3 FileSystem e Hadoop nativi, che consentono alle applicazioni di creare FileSink e scrivere i dati in Amazon S3. Ciò FileSink non riesce con una delle due eccezioni seguenti.
java.lang.UnsupportedOperationException: Recoverable writers on Hadoop are only supported for HDFS
Caused by: java.lang.NoSuchMethodError: org.apache.hadoop.io.retry.RetryPolicies.retryOtherThanRemoteAndSaslException(Lorg/apache/hadoop/io/retry/RetryPolicy;Ljava/util/Map;)Lorg/apache/hadoop/io/retry/RetryPolicy; at org.apache.hadoop.yarn.client.RMProxy.createRetryPolicy(RMProxy.java:302) ~[hadoop-yarn-common-3.3.3-amzn-0.jar:?]
Come soluzione alternativa, puoi installare una EMR patch Amazon, che risolve il problema precedente in Flink. Per applicare l'operazione bootstrap all'avvio del cluster, completa la seguente procedura.
-
Scarica il flink-rpm nel bucket Amazon S3. Il tuo percorso RPM è.
s3://
DOC-EXAMPLE-BUCKET
/rpms/flink/ -
Scarica lo script e RPM i file di bootstrap da Amazon S3 utilizzando quanto segue. URI
Sostituiscilo con il Regione AWS punto in cui intendi avviare il cluster.regionName
s3://emr-data-access-control-
regionName
/customer-bootstrap-actions/gcsc/replace-rpms.sh Hadoop 3.3.3 ha introdotto una modifica in YARN (YARN-9608
) che mantiene i nodi in cui erano in esecuzione i container in uno stato di disattivazione fino al completamento dell'applicazione. Questa modifica assicura che i dati locali, come i dati shuffle, non vadano persi e non è necessario eseguire nuovamente il processo. In Amazon EMR 6.8.0 e 6.9.0, questo approccio potrebbe anche portare a un sottoutilizzo delle risorse sui cluster con o senza la scalabilità gestita abilitata. Con Amazon EMR 6.10.0, esiste una soluzione alternativa a questo problema per impostare il valore di
yarn.resourcemanager.decommissioning-nodes-watcher.wait-for-applications
to in.false
yarn-site.xml
Nelle EMR versioni di Amazon 6.11.0 e successive, nonché 6.8.1, 6.9.1 e 6.10.1, la configurazione è impostata di default per risolvere questo problema.false
-
Modifiche, miglioramenti e problemi risolti
Per Amazon EMR versione 6.9.0 e successive, tutti i componenti installati da Amazon EMR che utilizzano le librerie Log4j utilizzano Log4j versione 2.17.1 o successiva.
-
Quando utilizzi il connettore DynamoDB con Spark nelle versioni di EMR Amazon 6.6.0, 6.7.0 e 6.8.0, tutte le letture dalla tabella restituiscono un risultato vuoto, anche se la suddivisione in input fa riferimento a dati non vuoti. La EMR versione 6.9.0 di Amazon risolve questo problema.
Amazon EMR 6.9.0 aggiunge un supporto limitato per il controllo degli accessi basato su Lake Formation con Apache Hudi durante la lettura dei dati tramite Spark. SQL Il supporto è per le SELECT query che utilizzano SQL Spark ed è limitato al controllo degli accessi a livello di colonna. Per ulteriori informazioni, consulta Hudi e Formation.
Quando usi Amazon EMR 6.9.0 per creare un cluster Hadoop con Node Labels
abilitato, i YARNparametri API restituiscono informazioni aggregate su tutte le partizioni, anziché la partizione predefinita. YARNPer ulteriori informazioni, consulta -11414. Con la EMR versione 6.9.0 di Amazon, abbiamo aggiornato Trino alla versione 398, che utilizza Java 17. La versione precedente supportata di Trino per Amazon EMR 6.8.0 era Trino 388 in esecuzione su Java 11. Per ulteriori informazioni su questa modifica, consulta Aggiornamenti di Trino a Java 17
sul blog di Trino. Questa versione corregge un problema di mancata corrispondenza della sequenza temporale tra Apache e Amazon BigTop EMR nella sequenza di avvio del cluster. EC2 Questa mancata corrispondenza della sequenza temporale si verifica quando un sistema tenta di eseguire due o più operazioni contemporaneamente anziché eseguirle nella sequenza corretta. Di conseguenza, alcune configurazioni del cluster hanno registrato timeout di startup delle istanze e tempi di startup del cluster più lenti.
Quando avvii un cluster con l'ultima versione di patch di Amazon EMR 5.36 o successiva, 6.6 o successiva, o 7.0 o successiva, Amazon EMR utilizza l'ultima versione di Amazon Linux 2023 o Amazon Linux 2 per Amazon Linux 2 come Amazon predefinito. EMR AMI Per ulteriori informazioni, consulta Using the default Amazon Linux AMI for Amazon EMR.
Nota
Questa versione non riceve più AMI aggiornamenti automatici poiché è stata sostituita da altre 1 release di patch. La versione della patch è indicata dal numero dopo il secondo separatore decimale (
6.8.
). Per vedere se stai utilizzando l'ultima versione della patch, controlla le versioni disponibili nella Release Guide o controlla il menu a discesa delle versioni di Amazon EMR quando crei un cluster nella console o usi l'1
list-release-labels
CLIazioneListReleaseLabels
APIo. Per ricevere aggiornamenti sulle nuove versioni, iscriviti al RSS feed nella sezione Cosa c'è di nuovo? pagina.OsReleaseLabel (versione Amazon Linux) Versione del kernel di Amazon Linux Data di disponibilità Regioni supportate 2.0.20241001.0 4,1352 4 ottobre 2024 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacifico (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale), (Stati Uniti occidentali), (Stati Uniti orientali), Cina AWS GovCloud (Pechino), Cina AWS GovCloud (Ningxia) 2,0,20240816,0 4,14,350 21 agosto 2024 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacifico (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale), (Stati Uniti occidentali), (Stati Uniti orientali), Cina AWS GovCloud (Pechino), Cina AWS GovCloud (Ningxia) 2,0,20240809,0 4,14,349 20 agosto 2024 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacifico (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale), (Stati Uniti occidentali), (Stati Uniti orientali), Cina AWS GovCloud (Pechino), Cina AWS GovCloud (Ningxia) 2,0,20240719,0 4,14,348 25 luglio 2024 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacifico (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale), (Stati Uniti occidentali), (Stati Uniti orientali), Cina AWS GovCloud (Pechino), Cina AWS GovCloud (Ningxia) 20,20240709,1 4,14,348 23 luglio 2024 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacifico (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale), (Stati Uniti occidentali), (Stati Uniti orientali), Cina AWS GovCloud (Pechino), Cina AWS GovCloud (Ningxia), Asia Pacifico (Hyderabad), Medio Oriente (UAE), Europa (Spagna), Europa (Zurigo), Asia Pacifico (Melbourne), Israele (Tel Aviv), Canada occidentale (Calgary) 20,20230808,0 4,14,320 24 agosto 2023 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong-Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka-Locale), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacific (Giacarta), Asia Pacifico (Melbourne), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale), Israele (Tel Aviv) 2,0,20230727,0 4,14,320 14 agosto 2023 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Spagna), Europa (Francoforte), Europa (Zurigo), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong Kong), Asia Pacifico (Mumbai), Asia Pacifico (Hyderabad), Asia Pacifico (Hyderabad), Asia Pacifico (Asia Pacifico) (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacifico (Giacarta), Asia Pacifico (Melbourne), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrain), Medio Oriente (), Canada (UAE Central), Israele (Tel Aviv) 20,20230719,0 4,14,320 2 agosto 2023 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Spagna), Europa (Francoforte), Europa (Zurigo), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong Kong), Asia Pacifico (Mumbai), Asia Pacifico (Hyderabad), Asia Pacifico (Hyderabad), Asia Pacifico (Asia Pacifico) (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacifico (Giacarta), Asia Pacifico (Melbourne), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrain), Medio Oriente (), Canada (UAE Central), Israele (Tel Aviv) 20,20230628,0 4,14,318 12 luglio 2023 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong-Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka-Locale), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacific (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale) 20,20230612,0 4,14,314 23 giugno 2023 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong-Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka-Locale), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacific (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale) 20,20230504,1 4,14,313 16 maggio 2023 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong-Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka-Locale), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacific (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale) 20,20230418,0 4,14,311 3 maggio 2023 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong-Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka-Locale), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacific (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale) 20,20230404,1 4,14,311 18 aprile 2023 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong-Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka-Locale), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacific (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale) 20,20230404,0 4,14,311 10 aprile 2023 Stati Uniti orientali (Virginia settentrionale), Europa (Parigi) 20,20230320,0 4,1409 30 marzo 2023 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong-Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka-Locale), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacific (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale) 2,0,20230307,0 4,14,305 15 marzo 2023 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong-Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka-Locale), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacific (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale) 2,0,20230207,0 4,14,304 22 febbraio 2023 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong-Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka-Locale), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacific (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale) 20,20221210,1 4,14,31 12 gennaio 2023 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong-Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka-Locale), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacific (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale) 20,20221103,3 4,1496 5 dicembre 2022 Stati Uniti orientali (Virginia settentrionale), Stati Uniti orientali (Ohio), Stati Uniti occidentali (California settentrionale), Stati Uniti occidentali (Oregon), Europa (Stoccolma), Europa (Milano), Europa (Francoforte), Europa (Irlanda), Europa (Londra), Europa (Parigi), Asia Pacifico (Hong-Kong), Asia Pacifico (Mumbai), Asia Pacifico (Tokyo), Asia Pacifico (Seoul), Asia Pacifico (Osaka-Locale), Asia Pacifico (Singapore), Asia Pacifico (Sydney), Asia Pacific (Giacarta), Africa (Città del Capo), Sud America (San Paolo), Medio Oriente (Bahrein), Canada (Centrale)
Versioni dei componenti 6.9.0
I componenti che Amazon EMR installa con questa versione sono elencati di seguito. Alcuni sono installati come parte di pacchetti di applicazione dei big data. Altri sono esclusivi di Amazon EMR e installati per processi e funzionalità di sistema. Questi solitamente iniziano con emr
o aws
. I pacchetti di applicazioni Big Data nella EMR versione più recente di Amazon sono in genere l'ultima versione disponibile nella community. Rendiamo disponibili le versioni per la community su Amazon EMR il più rapidamente possibile.
Alcuni componenti di Amazon EMR differiscono dalle versioni della community. Tali componenti hanno un'etichetta che indica la versione nel modulo
. CommunityVersion
-amzn-EmrVersion
inizia da 0. Ad esempio, se il componente della community open source denominato EmrVersion
myapp-component
con la versione 2.2 è stato modificato tre volte per essere incluso in diverse EMR versioni di Amazon, la sua versione di rilascio è elencata come2.2-amzn-2
.
Componente | Versione | Descrizione |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.2 | Amazon SageMaker Spark SDK |
delta | 2.1.0 | Delta Lake è un formato a tabella aperta per set di dati analitici di grandissime dimensioni |
emr-ddb | 4.16.0 | Connettore di Amazon DynamoDB per le applicazioni dell'ecosistema Hadoop. |
emr-goodies | 3.3.0 | Librerie utili per l'ecosistema Hadoop. |
emr-kinesis | 3.6.0 | Connettore di Amazon Kinesis per le applicazioni dell'ecosistema Hadoop. |
emr-notebook-env | 1.7.0 | Ambiente Conda per EMR Notebooks che include il gateway aziendale Jupyter |
emr-s3-dist-cp | 2.23.0 | Applicazione di copia distribuita ottimizzata per Amazon S3. |
emr-s3-select | 2.2.0 | EMRConnettore S3Select |
emrfs | 2.54.0 | Connettore di Amazon S3 per le applicazioni dell'ecosistema Hadoop. |
flink-client | 1.15.2 | Applicazioni e script client a riga di comando Apache Flink. |
flink-jobmanager-config | 1.15.2 | Gestione delle risorse sui EMR nodi per Apache Flink. JobManager |
ganglia-monitor | 3.7.2 | Agente Ganglia integrato per le applicazioni dell'ecosistema Hadoop con l'agente di monitoraggio Ganglia. |
ganglia-metadata-collector | 3.7.2 | Raccoglitore di metadati Ganglia per l'aggregazione di parametri degli agenti di monitoraggio Ganglia. |
ganglia-web | 3.7.1 | Applicazione Web per la visualizzazione di parametri raccolti dal raccoglitore di metadati Ganglia. |
hadoop-client | 3.3.3-amzn-1 | Client di riga di comando Hadoop, ad esempio "hdfs", "hadoop" o "yarn". |
hadoop-hdfs-datanode | 3.3.3-amzn-1 | HDFSservizio a livello di nodo per l'archiviazione dei blocchi. |
hadoop-hdfs-library | 3.3.3-amzn-1 | HDFSclient e libreria da riga di comando |
hadoop-hdfs-namenode | 3.3.3-amzn-1 | HDFSservizio per tracciare i nomi dei file e le posizioni dei blocchi. |
hadoop-hdfs-journalnode | 3.3.3-amzn-1 | HDFSservizio per la gestione del diario del file system Hadoop su cluster HA. |
hadoop-httpfs-server | 3.3.3-amzn-1 | HTTPHDFSendpoint per le operazioni. |
hadoop-kms-server | 3.3.3-amzn-1 | Server di gestione delle chiavi crittografiche basato su Hadoop. KeyProvider API |
hadoop-mapred | 3.3.3-amzn-1 | MapReduce librerie di motori di esecuzione per l'esecuzione di un'applicazione. MapReduce |
hadoop-yarn-nodemanager | 3.3.3-amzn-1 | YARNservizio per la gestione dei contenitori su un singolo nodo. |
hadoop-yarn-resourcemanager | 3.3.3-amzn-1 | YARNservizio per l'allocazione e la gestione delle risorse del cluster e delle applicazioni distribuite. |
hadoop-yarn-timeline-server | 3.3.3-amzn-1 | Servizio per il recupero di informazioni correnti e storiche per le applicazioni. YARN |
hbase-hmaster | 2.4.13-amzn-0 | Servizio per un HBase cluster responsabile del coordinamento delle regioni e dell'esecuzione dei comandi amministrativi. |
hbase-region-server | 2.4.13-amzn-0 | Servizio per servire una o più HBase regioni. |
hbase-client | 2.4.13-amzn-0 | HBaseclient da riga di comando. |
hbase-rest-server | 2.4.13-amzn-0 | Servizio che fornisce un RESTful HTTP endpoint per. HBase |
hbase-thrift-server | 2.4.13-amzn-0 | Servizio che fornisce un endpoint Thrift a. HBase |
hbase-operator-tools | 2.4.13-amzn-0 | Strumento di riparazione per cluster ApacheHBase. |
hcatalog-client | 3.1.3-amzn-2 | Client a riga di comando "hcat" per la manipolazione del server hcatalog. |
hcatalog-server | 3.1.3-amzn-2 | Fornitura di serviziHCatalog, un livello di gestione delle tabelle e dello storage per applicazioni distribuite. |
hcatalog-webhcat-server | 3.1.3-amzn-2 | HTTPendpoint che fornisce un'RESTinterfaccia a. HCatalog |
hive-client | 3.1.3-amzn-2 | Client a riga di comando Hive. |
hive-hbase | 3.1.3-amzn-2 | Client Hive-hbase. |
hive-metastore-server | 3.1.3-amzn-2 | Servizio per l'accesso al metastore Hive, un archivio semantico che archivia i metadati per le operazioni su Hadoop. SQL |
hive-server2 | 3.1.3-amzn-2 | Servizio per l'accettazione di query Hive come richieste Web. |
hudi | 0.12.1-amzn-0 | Framework di elaborazione incrementale per alimentare la Data Pipeline a bassa latenza e alta efficienza. |
hudi-presto | 0.12.1-amzn-0 | Libreria bundle per eseguire Presto con Hudi. |
hudi-trino | 0.12.1-amzn-0 | Libreria bundle per eseguire Trino con Hudi. |
hudi-spark | 0.12.1-amzn-0 | Libreria bundle per eseguire Spark con Hudi. |
hue-server | 4.10.0 | Applicazione Web per l'analisi di dati mediante le applicazioni dell'ecosistema Hadoop |
iceberg | 0.14.1-amzn-0 | Apache Iceberg è un formato a tabella aperta per enormi set di dati analitici |
jupyterhub | 1.4.1 | Server multi-utente per notebook Jupyter |
livy-server | 0.7.1-incubating | RESTinterfaccia per interagire con Apache Spark |
nginx | 1.12.1 | nginx [engine x] è HTTP un server proxy e inverso |
mxnet | 1.9.1 | Una libreria flessibile, scalabile ed efficiente per il deep learning. |
mariadb-server | 5.5.68+ | Server di database MariaDB. |
nvidia-cuda | 11,7,0 | Driver Nvidia e kit di strumenti Cuda |
oozie-client | 5.2.1 | Client a riga di comando Oozie. |
oozie-server | 5.2.1 | Servizio per l'accettazione delle richieste di flusso di lavoro Oozie. |
opencv | 4.5.0 | Open Source Computer Vision Library. |
phoenix-library | 5.1.2 | Le librerie Phoenix per server e client |
phoenix-connectors | 6.0.0- SNAPSHOT | Connettori Apache Phoenix per Spark-3 |
phoenix-query-server | 6.0.0 | Un server leggero che fornisce JDBC l'accesso, i buffer di protocollo e l'accesso ai JSON formati ad Avatica API |
presto-coordinator | 0.276-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query di componenti presto-worker. |
presto-worker | 0.276-amzn-0 | Servizio per l'esecuzione di parti di una query. |
presto-client | 0.276-amzn-0 | Presto client della riga di comando che viene installato su master di standby di un cluster HA dove server Presto non viene avviato. |
trino-coordinator | 398-amzn-0 | Servizio per l'accettazione di query e la gestione dell'esecuzione di query tra componenti trino-workers. |
trino-worker | 398-amzn-0 | Servizio per l'esecuzione di parti di una query. |
trino-client | 398-amzn-0 | Trino client della riga di comando che viene installato su master di standby di un cluster HA dove server Trino non viene avviato. |
pig-client | 0.17.0 | Client a riga di comando Pig. |
r | 4.0.2 | The R Project for Statistical Computing |
ranger-kms-server | 2.0.0 | Sistema di gestione delle chiavi Apache Ranger |
spark-client | 3.3.0-amzn-1 | Client a riga di comando Spark. |
spark-history-server | 3.3.0-amzn-1 | Interfaccia utente Web per la visualizzazione di eventi registrati per la durata di un'applicazione Spark completata. |
spark-on-yarn | 3.3.0-amzn-1 | Motore di esecuzione in memoria per. YARN |
spark-yarn-slave | 3.3.0-amzn-1 | Librerie Apache Spark necessarie agli slave. YARN |
spark-rapids | 22.08.0-amzn-0 | RAPIDSPlugin Nvidia Spark che accelera Apache Spark con. GPUs |
sqoop-client | 1.4.7 | Client a riga di comando Apache Sqoop. |
tensorflow | 2.10.0 | TensorFlow libreria software open source per il calcolo numerico ad alte prestazioni. |
tez-on-yarn | 0.10.2-amzn-0 | L'YARNapplicazione e le librerie tez. |
webserver | 2.4.41+ | Server ApacheHTTP. |
zeppelin-server | 0.10.1 | Notebook basato sul Web che consente l'analisi di dati interattiva. |
zookeeper-server | 3.5.10 | Servizio centralizzato per la manutenzione delle informazioni di configurazione, i servizi di denominazione, la sincronizzazione distribuita e l'erogazione di servizi di gruppo. |
zookeeper-client | 3.5.10 | ZooKeeper client a riga di comando. |
Classificazioni di configurazione 6.9.0
Le classificazioni di configurazione consentono di personalizzare le applicazioni. Questi spesso corrispondono a un XML file di configurazione per l'applicazione, ad esempiohive-site.xml
. Per ulteriori informazioni, consulta Configurazione delle applicazioni.
Le azioni di riconfigurazione vengono eseguite quando si specifica una configurazione per gruppi di istanze in un cluster in esecuzione. Amazon avvia EMR solo azioni di riconfigurazione per le classificazioni che modifichi. Per ulteriori informazioni, consulta Riconfigurazione di un gruppo di istanze in un cluster in esecuzione.
Classificazioni | Descrizione | Operazioni di riconfigurazione |
---|---|---|
capacity-scheduler | Modifica i valori nel file capacity-scheduler.xml di Hadoop. | Restarts the ResourceManager service. |
container-executor | Modifica i valori nel file container-executor.cfg di HadoopYARN. | Not available. |
container-log4j | Modifica i valori nel file container-log4j.properties di Hadoop. YARN | Not available. |
core-site | Modifica i valori nel file core-site.xml di Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | Modifica le impostazioni relative a docker. | Not available. |
emrfs-site | EMRFSModificare le impostazioni. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | Modifica le impostazione flink-conf.yaml. | Restarts Flink history server. |
flink-log4j | Modifica le impostazioni Flink log4j.properties. | Restarts Flink history server. |
flink-log4j-session | Modifica le impostazioni Flink log4j-session.properties per la sessione Kubernetes/Yarn. | Restarts Flink history server. |
flink-log4j-cli | Modifica le impostazioni Flink log4j-cli.properties. | Restarts Flink history server. |
hadoop-env | Modifica i valori nell'ambiente Hadoop per tutti i componenti Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | Modifica i valori nel file log4j.properties di Hadoop. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | Modifica la configurazione server ssl hadoop | Not available. |
hadoop-ssl-client | Modifica la configurazione client ssl hadoop | Not available. |
hbase | Impostazioni EMR curate da Amazon per Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | Modifica i valori nell'ambienteHBase. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | Modifica i valori nel file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | Cambia i valori nel file hadoop-metrics2-hbase.properties. HBase | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | Cambia i valori nel HBase file hbase-policy.xml. | Not available. |
hbase-site | Modifica i valori nel HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | Configura le zone di HDFS crittografia. | This classification should not be reconfigured. |
hdfs-env | Modifica i valori nell'HDFSambiente. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | Cambia i valori in HDFS's hdfs-site.xml. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | Cambia i valori nell'HCatalogambiente. | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | Cambia i valori in HCatalog jndi.properties. | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | Cambia i valori nel file .xmlHCatalog. proto-hive-site | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | Cambia i valori nell'ambiente ebHCat di HCatalog W. | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | Modifica i valori in HCatalog ebHCat log4j2.properties di W. | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | Modifica i valori nel file webhcat-site.xml di HCatalog W. ebHCat | Restarts Hive WebHCat server. |
hive | Impostazioni EMR curate da Amazon per Apache Hive. | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | Modifica i valori nel file beeline-log4j2.properties di Hive. | Not available. |
hive-parquet-logging | Modifica i valori nel file parquet-logging.properties di Hive. | Not available. |
hive-env | Modifica i valori nell'ambiente Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | Modifica i valori nel file 4j2.properties di Hive. hive-exec-log | Not available. |
hive-llap-daemon-log4j2 | Modifica i valori nel file 4j2.properties di Hive. llap-daemon-log | Not available. |
hive-log4j2 | Modifica i valori nel file hive-log4j2.properties di Hive. | Not available. |
hive-site | Modifica i valori nel file hive-site.xml di Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | Modifica i valori nel file hiveserver2-site.xml di Hive Server2 | Not available. |
hue-ini | Modifica i valori nel file ini di Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | Cambia i valori nell'ambiente. HTTPFS | Restarts Hadoop Httpfs service. |
httpfs-site | Modifica i valori nel file httpfs-site.xml di Hadoop. | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | Modifica i valori nel file kms-acls.xml di Hadoop. | Not available. |
hadoop-kms-env | Modifica i valori nell'ambiente Hadoop. KMS | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | Modifica i valori nel file kms-log4j.properties di Hadoop. | Not available. |
hadoop-kms-site | Modifica i valori nel file kms-site.xml di Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | Modifica i valori nell'ambiente Hudi. | Not available. |
hudi-defaults | Modifica i valori nel file hudi-defaults.conf di Hudi. | Not available. |
iceberg-defaults | Modifica i valori nel file iceberg-defaults.conf di Iceberg. | Not available. |
delta-defaults | Modifica i valori nel file delta-defaults.conf di Delta. | Not available. |
jupyter-notebook-conf | Modifica i valori nel file jupyter_notebook_config.py di Jupyter Notebook. | Not available. |
jupyter-hub-conf | Modificare i valori nel JupyterHubs file jupyterhub_config.py. | Not available. |
jupyter-s3-conf | Configura la persistenza di S3 del notebook Jupyter. | Not available. |
jupyter-sparkmagic-conf | Modifica i valori nel file config.json di Sparkmagic. | Not available. |
livy-conf | Modifica i valori nel file livy.conf di Livy. | Restarts Livy Server. |
livy-env | Modifica i valori nell'ambiente Livy. | Restarts Livy Server. |
livy-log4j2 | Modifica le impostazioni di log4j2.properties di Livy. | Restarts Livy Server. |
mapred-env | Modifica i valori nell'ambiente dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | Modificate i valori nel file mapred-site.xml dell' MapReduce applicazione. | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | Modifica i valori nell'ambiente di Oozie. | Restarts Oozie. |
oozie-log4j | Modifica i valori nel file oozie-log4j.properties di Oozie. | Restarts Oozie. |
oozie-site | Modifica i valori nel file oozie-site.xml di Oozie. | Restarts Oozie. |
phoenix-hbase-metrics | Modifica i valori nel file hadoop-metrics2-hbase.properties di Phoenix. | Not available. |
phoenix-hbase-site | Modifica i valori nel file hbase-site.xml di Phoenix. | Not available. |
phoenix-log4j | Modifica i valori nel file log4j.properties di Phoenix. | Restarts Phoenix-QueryServer. |
phoenix-metrics | Modifica i valori nel file hadoop-metrics2-phoenix.properties di Phoenix. | Not available. |
pig-env | Change values in the Pig environment. | Not available. |
pig-properties | Modifica i valori nel file pig.properties di Pig. | Restarts Oozie. |
pig-log4j | Modifica i valori nel file log4j.properties di Pig. | Not available. |
presto-log | Modifica i valori nel file log.properties di Presto. | Restarts Presto-Server (for PrestoDB) |
presto-config | Modifica i valori nel file config.properties di Presto. | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | Modifica i valori nel file password-authenticator.properties di Presto. | Not available. |
presto-env | Modifica i valori nel file presto-env.sh di Presto. | Restarts Presto-Server (for PrestoDB) |
presto-node | Modifica i valori nel file node.properties di Presto. | Not available. |
presto-connector-blackhole | Modifica i valori nel file blackhole.properties di Presto. | Not available. |
presto-connector-cassandra | Modifica i valori nel file cassandra.properties di Presto. | Not available. |
presto-connector-hive | Modifica i valori nel file hive.properties di Presto. | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | Modifica i valori nel file jmx.properties di Presto. | Not available. |
presto-connector-kafka | Modifica i valori nel file kafka.properties di Presto. | Not available. |
presto-connector-lakeformation | Modifica i valori nel file lakeformation.properties di Presto. | Restarts Presto-Server (for PrestoDB) |
presto-connector-localfile | Modifica i valori nel file localfile.properties di Presto. | Not available. |
presto-connector-memory | Modifica i valori nel file memory.properties di Presto. | Not available. |
presto-connector-mongodb | Modifica i valori nel file mongodb.properties di Presto. | Not available. |
presto-connector-mysql | Modifica i valori nel file mysql.properties di Presto. | Not available. |
presto-connector-postgresql | Modifica i valori nel file postgresql.properties di Presto. | Not available. |
presto-connector-raptor | Modifica i valori nel file raptor.properties di Presto. | Not available. |
presto-connector-redis | Modifica i valori nel file redis.properties di Presto. | Not available. |
presto-connector-redshift | Modifica i valori nel file redshift.properties di Presto. | Not available. |
presto-connector-tpch | Modifica i valori nel file tpch.properties di Presto. | Not available. |
presto-connector-tpcds | Modifica i valori nel file tpcds.properties di Presto. | Not available. |
trino-log | Modifica i valori nel file log.properties di Trino. | Restarts Trino-Server (for Trino) |
trino-config | Modifica i valori nel file config.properties di Trino. | Restarts Trino-Server (for Trino) |
trino-password-authenticator | Modifica i valori nel file password-authenticator.properties di Trino. | Restarts Trino-Server (for Trino) |
trino-env | Modifica i valori nel file trino-env.sh di Trino. | Restarts Trino-Server (for Trino) |
trino-node | Modifica i valori nel file node.properties di Trino. | Not available. |
trino-connector-blackhole | Modifica i valori nel file blackhole.properties di Trino. | Not available. |
trino-connector-cassandra | Modifica i valori nel file cassandra.properties di Trino. | Not available. |
trino-connector-delta | Modifica i valori nel file delta.properties di Trino. | Restarts Trino-Server (for Trino) |
trino-connector-hive | Modifica i valori nel file hive.properties di Trino. | Restarts Trino-Server (for Trino) |
trino-exchange-manager | Modifica i valori nel file exchange-manager.properties di Trino. | Restarts Trino-Server (for Trino) |
trino-connector-iceberg | Modifica i valori nel file iceberg.properties di Trino. | Restarts Trino-Server (for Trino) |
trino-connector-jmx | Modifica i valori nel file jmx.properties di Trino. | Not available. |
trino-connector-kafka | Modifica i valori nel file kafka.properties di Trino. | Not available. |
trino-connector-localfile | Modifica i valori nel file localfile.properties di Trino. | Not available. |
trino-connector-memory | Modifica i valori nel file memory.properties di Trino. | Not available. |
trino-connector-mongodb | Modifica i valori nel file mongodb.properties di Trino. | Not available. |
trino-connector-mysql | Modifica i valori nel file mysql.properties di Trino. | Not available. |
trino-connector-postgresql | Modifica i valori nel file postgresql.properties di Trino. | Not available. |
trino-connector-raptor | Modifica i valori nel file raptor.properties di Trino. | Not available. |
trino-connector-redis | Modifica i valori nel file redis.properties di Trino. | Not available. |
trino-connector-redshift | Modifica i valori nel file redshift.properties di Trino. | Not available. |
trino-connector-tpch | Modifica i valori nel file tpch.properties di Trino. | Not available. |
trino-connector-tpcds | Modifica i valori nel file tpcds.properties di Trino. | Not available. |
ranger-kms-dbks-site | Modifica i valori nel file dbks-site.xml di Ranger. KMS | Restarts Ranger KMS Server. |
ranger-kms-site | Modifica i valori nel ranger-kms-site file.xml di Ranger. KMS | Restarts Ranger KMS Server. |
ranger-kms-env | Modifica i valori nell'ambiente RangerKMS. | Restarts Ranger KMS Server. |
ranger-kms-log4j | Modifica i valori nel file kms-log4j.properties di Ranger. KMS | Not available. |
ranger-kms-db-ca | Modifica i valori per il file CA su S3 per La mia connessione con Ranger. SQL SSL KMS | Not available. |
spark | Impostazioni EMR curate da Amazon per Apache Spark. | This property modifies spark-defaults. See actions there. |
spark-defaults | Modifica i valori nel file spark-defaults.conf di Spark. | Restarts Spark history server and Spark thrift server. |
spark-env | Modifica i valori nell'ambiente Spark. | Restarts Spark history server and Spark thrift server. |
spark-hive-site | Modifica i valori nel file hive-site.xml di Spark | Not available. |
spark-log4j2 | Modifica i valori nel file log4j2.properties di Spark. | Restarts Spark history server and Spark thrift server. |
spark-metrics | Modifica i valori nel file metrics.properties di Spark. | Restarts Spark history server and Spark thrift server. |
sqoop-env | Modifica i valori nell'ambiente di Sqoop. | Not available. |
sqoop-oraoop-site | Modifica i valori nel file oraoop-site.xml di Sqoop OraOop. | Not available. |
sqoop-site | Modifica i valori nel file sqoop-site.xml di Sqoop. | Not available. |
tez-site | Modifica i valori nel file tez-site.xml file di Tez. | Restart Oozie and HiveServer2. |
yarn-env | Modifica i valori nell'ambiente. YARN | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | Modifica i valori nel YARN file yarn-site.xml. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | Modifica i valori nell'ambiente Zeppelin. | Restarts Zeppelin. |
zeppelin-site | Modifica le impostazioni di configurazione in zeppelin-site.xml. | Restarts Zeppelin. |
zookeeper-config | Modifica i valori nel ZooKeeper file zoo.cfg. | Restarts Zookeeper server. |
zookeeper-log4j | Modifica i valori nel file ZooKeeper log4j.properties. | Restarts Zookeeper server. |
Log delle modifiche 6.9.0
Data | Evento | Descrizione |
---|---|---|
2023-08-30 | Aggiorna le note di rilascio | Aggiunta una correzione per il problema di mancata corrispondenza della sequenza temporale |
2023-08-21 | Aggiorna le note di rilascio | Aggiunto un problema noto con Hadoop 3.3.3. |
2023-07-26 | Aggiornamento | Nuove etichette della versione del sistema operativo 2.0.20230612.0 e 2.0.20230628.0 . |
2022-12-13 | Aggiornamento delle note di rilascio | Funzionalità aggiunta e problema noto per il runtime con SageMaker |
29-11-2022 | Aggiornamento delle note di rilascio e della documentazione | Aggiunta di una caratteristica per l'integrazione di Amazon Redshift per Apache Spark |
2022-11-23 | Aggiornamento delle note di rilascio | Rimozione della voce Log4j |
2022-11-18 | Implementazione completata | Amazon EMR 6.9 completamente distribuito in tutte le regioni supportate |
18-11-2022/18 | Pubblicazione dei documenti | Pubblicate per la prima volta le note di rilascio di Amazon EMR 6.9 |
2022-11-14 | Rilascio iniziale | Amazon EMR 6.9 distribuito in regioni commerciali limitate |