Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Amazon EMR merilis 6.4.0
6.4.0 versi aplikasi
Aplikasi berikut didukung dalam rilis ini: Flink
Tabel di bawah ini mencantumkan versi aplikasi yang tersedia dalam rilis Amazon ini EMR dan versi aplikasi di tiga EMR rilis Amazon sebelumnya (bila berlaku).
Untuk riwayat lengkap versi aplikasi untuk setiap rilis AmazonEMR, lihat topik berikut:
emr-6.4.0 | emr-6.3.1 | emr-6.3.0 | emr-6.2.1 | |
---|---|---|---|---|
AWS SDK untuk Java | 1.12.31 | 1.11.977 | 1.11.977 | 1.11.880 |
Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 |
Skala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 |
AmazonCloudWatchAgent | - | - | - | - |
kuala | - | - | - | - |
Flink | 1.13.1 | 1.12.1 | 1.12.1 | 1.11.2 |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.4.4 | 2.2.6 | 2.2.6 | 2.2.6-amzn-0 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.8.0-amzn-0 | 0.7.0-amzn-0 | 0.7.0-amzn-0 | 0.6.0-amzn-1 |
Hue | 4.9.0 | 4.9.0 | 4.9.0 | 4.8.0 |
Gunung es | - | - | - | - |
JupyterEnterpriseGateway | 2.1.0 | 2.1.0 | 2.1.0 | 2.1.0 |
JupyterHub | 1.4.1 | 1.2.2 | 1.2.2 | 1.1.0 |
Livy | 0.7.1 | 0.7.0 | 0.7.0 | 0.7.0 |
MXNet | 1.8.0 | 1.7.0 | 1.7.0 | 1.7.0 |
Mahout | - | - | - | - |
Oozie | 5.2.1 | 5.2.1 | 5.2.1 | 5.2.0 |
Phoenix | 5.1.2 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | 0.17.0 |
Presto | 0.254.1 | 0.245.1 | 0.245.1 | 0.238.3 |
Spark | 3.1.2 | 3.1.1 | 3.1.1 | 3.0.1 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | 1.4.7 |
TensorFlow | 2.4.1 | 2.4.1 | 2.4.1 | 2.3.1 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (PrestoSQL) | 359 | 350 | 350 | 343 |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.5.7 | 3.4.14 | 3.4.14 | 3.4.14 |
6.4.0 catatan rilis
Catatan rilis berikut mencakup informasi untuk EMR rilis Amazon 6.4.0. Perubahan relatif terhadap 6.3.0.
Tanggal rilis awal: 20 September 2021
Tanggal rilis diperbarui: 21 Maret 2022
Aplikasi-aplikasi yang didukung
-
AWS SDK for Java versi 1.12.31
-
CloudWatch Wastafel versi 2.2.0
-
DynamoDB Connector versi 4.16.0
-
EMRFSversi 2.47.0
-
Amazon EMR Goodies versi 3.2.0
-
Konektor EMR Kinesis Amazon versi 3.5.0
-
Amazon EMR Record Server versi 2.1.0
-
Amazon EMR Scripts versi 2.5.0
-
Flink versi 1.13.1
-
Ganglia versi 3.7.2
-
AWS Glue Hive Metastore Client versi 3.3.0
-
Hadoop versi 3.2.1-amzn-4
-
HBaseversi 2.4.4-amzn-0
-
HBase-operator-tools 1.1.0
-
HCatalogversi 3.1.2-amzn-5
-
Sarang versi 3.1.2-amzn-5
-
Hudi versi 0.8.0-amzn-0
-
Hue versi 4.9.0
-
JDKVersi Java Corretto-8.302.08.1 (build 1.8.0_302-b08)
-
JupyterHub versi 1.4.1
-
Livy versi 0.7.1-inkubasi
-
MXNetversi 1.8.0
-
Oozie versi 5.2.1
-
Phoenix versi 5.1.2
-
Pig versi 0.17.0
-
Presto versi 0.254.1-amzn-0
-
Trino versi 359
-
Apache Ranger KMS (enkripsi transparan multi-master) versi 2.0.0
-
ranger-plugin 2.0.1-amzn-0
-
ranger-s3-plugin 1.2.0
-
SageMaker Spark SDK versi 1.4.1
-
Scala versi 2.12.10 (Buka VM Server JDK 64-Bit, Java 1.8.0_282)
-
Spark versi 3.1.2-amzn-0
-
spark-rapids 0.4.1
-
Sqoop versi 1.4.7
-
TensorFlow versi 2.4.1
-
tez versi 0.9.2
-
Zeppelin versi 0.9.0
-
Zookeeper versi 3.5.7
-
Konektor dan driver: DynamoDB Connector 4.16.0
Fitur baru
-
[Penskalaan terkelola] Pengoptimalan penskalaan terkelola data acak percikan - Untuk Amazon EMR versi 5.34.0 dan yang lebih baru, dan EMR versi 6.4.0 dan yang lebih baru, penskalaan terkelola sekarang sadar data acak Spark (data yang didistribusikan ulang Spark di seluruh partisi untuk melakukan operasi tertentu). Untuk informasi selengkapnya tentang operasi shuffle, lihat Menggunakan penskalaan EMR terkelola EMR di Amazon dalam Panduan EMR Manajemen Amazon dan Panduan Pemrograman Spark
. -
Pada kluster EMR Amazon yang mendukung Apache Ranger, Anda dapat menggunakan Apache SQL Spark untuk menyisipkan data ke dalam atau memperbarui tabel metastore Apache Hive menggunakan,, dan.
INSERT INTO
INSERT OVERWRITE
ALTER TABLE
Saat menggunakan ALTER TABLE dengan SparkSQL, lokasi partisi harus menjadi direktori anak dari lokasi tabel. Amazon saat ini EMR tidak mendukung penyisipan data ke dalam partisi di mana lokasi partisi berbeda dari lokasi tabel. -
Presto SQL telah berganti nama
menjadi Trino. -
Hive: Eksekusi SELECT kueri sederhana dengan LIMIT klausa dipercepat dengan menghentikan eksekusi kueri segera setelah jumlah catatan yang disebutkan dalam LIMIT klausa diambil. SELECTKueri sederhana adalah kueri yang tidak memiliki GROUP BY ORDER /by klausa atau kueri yang tidak memiliki tahap peredam. Misalnya,
SELECT * from <TABLE> WHERE <Condition> LIMIT <Number>
.
Kontrol Konkurensi Hudi
-
Hudi sekarang mendukung Optimistic Concurrency Control (OCC), yang dapat dimanfaatkan dengan operasi tulis seperti UPSERT dan INSERT untuk memungkinkan perubahan dari beberapa penulis ke tabel Hudi yang sama. Ini adalah tingkat fileOCC, jadi dua komit (atau penulis) dapat menulis ke tabel yang sama, jika perubahannya tidak bertentangan. Untuk informasi lebih lanjut, lihat kontrol konkurensi Hudi
. -
EMRCluster Amazon telah menginstal Zookeeper, yang dapat dimanfaatkan sebagai penyedia kunci untuk. OCC Untuk mempermudah penggunaan fitur ini, EMR klaster Amazon memiliki properti berikut yang telah dikonfigurasi sebelumnya:
hoodie.write.lock.provider=org.apache.hudi.client.transaction.lock.ZookeeperBasedLockProvider hoodie.write.lock.zookeeper.url=<
EMR Zookeeper URL
> hoodie.write.lock.zookeeper.port=<EMR Zookeeper Port
> hoodie.write.lock.zookeeper.base_path=/hudiUntuk mengaktifkanOCC, Anda perlu mengonfigurasi properti berikut baik dengan opsi pekerjaan Hudi atau di tingkat cluster menggunakan konfigurasi Amazon: EMR API
hoodie.write.concurrency.mode=optimistic_concurrency_control hoodie.cleaner.policy.failed.writes=LAZY (Performs cleaning of failed writes lazily instead of inline with every write) hoodie.write.lock.zookeeper.lock_key=
<Key to uniquely identify the Hudi table>
(Table Name is a good option)
Pemantauan Hudi: CloudWatch Integrasi Amazon untuk melaporkan Metrik Hudi
-
Amazon EMR mendukung penerbitan Hudi Metrics ke Amazon. CloudWatch Ini diaktifkan dengan mengatur konfigurasi yang diperlukan berikut:
hoodie.metrics.on=true hoodie.metrics.reporter.type=CLOUDWATCH
Berikut ini adalah konfigurasi Hudi opsional yang dapat Anda ubah:
Pengaturan Deskripsi Nilai hoodie.metrics.cloudwatch.report.period.seconds
Frekuensi (dalam detik) untuk melaporkan metrik ke Amazon CloudWatch
Nilai default adalah 60-an, yang baik-baik saja untuk resolusi default satu menit yang ditawarkan oleh Amazon CloudWatch
hoodie.metrics.cloudwatch.metric.prefix
Awalan yang akan ditambahkan ke setiap nama metrik
Nilai default kosong (tidak ada awalan)
hoodie.metrics.cloudwatch.namespace
CloudWatch Namespace Amazon di mana metrik diterbitkan
Nilai default adalah Hudi
hoodie.metrics.cloudwatch. maxDatumsPerPermintaan
Jumlah maksimum datum yang akan dimasukkan dalam satu permintaan ke Amazon CloudWatch
Nilai default adalah 20, yang sama dengan CloudWatch default Amazon
Dukungan dan EMR peningkatan konfigurasi Amazon Hudi
-
Pelanggan sekarang dapat memanfaatkan fitur EMR Konfigurasi API dan Konfigurasi Ulang untuk mengonfigurasi konfigurasi Hudi di tingkat cluster. Dukungan konfigurasi berbasis file baru telah diperkenalkan via /etc/hudi/conf/hudi -defaults.conf di sepanjang baris aplikasi lain seperti Spark, Hive dll. Mengkonfigurasi beberapa default untuk meningkatkan pengalaman pengguna: EMR
—
hoodie.datasource.hive_sync.jdbcurl
dikonfigurasi ke server cluster Hive URL dan tidak perlu lagi ditentukan. Ini sangat berguna saat menjalankan pekerjaan dalam mode cluster Spark, di mana Anda sebelumnya harus menentukan IP EMR master Amazon.— konfigurasi HBase khusus, yang berguna untuk menggunakan HBase indeks dengan Hudi.
— Konfigurasi khusus penyedia kunci Zookeeper, seperti yang dibahas di bawah kontrol konkurensi, yang membuatnya lebih mudah untuk menggunakan Optimistic Concurrency Concurrency Control (). OCC
-
Perubahan tambahan telah diperkenalkan untuk mengurangi jumlah konfigurasi yang perlu Anda lewati, dan untuk menyimpulkan secara otomatis jika memungkinkan:
—
partitionBy
Kata kunci dapat digunakan untuk menentukan kolom partisi.— Saat mengaktifkan Hive Sync, tidak lagi wajib untuk lulus.
HIVE_TABLE_OPT_KEY, HIVE_PARTITION_FIELDS_OPT_KEY, HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY
Nilai-nilai tersebut dapat disimpulkan dari nama tabel Hudi dan bidang partisi.—
KEYGENERATOR_CLASS_OPT_KEY
tidak wajib untuk lulus, dan dapat disimpulkan dari kasus yang lebih sederhana dariSimpleKeyGenerator
danComplexKeyGenerator
.
Peringatan Hudi
-
Hudi tidak mendukung eksekusi vektor di Hive for Merge on Read (MoR) dan tabel Bootstrap. Misalnya,
count(*)
gagal dengan tabel realtime Hudi ketikahive.vectorized.execution.enabled
disetel ke true. Sebagai solusinya, Anda dapat menonaktifkan pembacaan vektor dengan menyetel ke.hive.vectorized.execution.enabled
false
-
Dukungan multi-penulis tidak kompatibel dengan fitur bootstrap Hudi.
-
Flink Streamer dan Flink SQL adalah fitur eksperimental dalam rilis ini. Fitur-fitur ini tidak disarankan untuk digunakan dalam penyebaran produksi.
Perubahan, penyempurnaan, dan masalah yang diselesaikan
Ini adalah rilis untuk memperbaiki masalah dengan Amazon EMR Scaling ketika gagal meningkatkan/menurunkan klaster dengan sukses atau menyebabkan kegagalan aplikasi.
Sebelumnya, restart manual pengelola sumber daya pada cluster multi-master menyebabkan daemon EMR on-cluster Amazon, seperti Zookeeper, memuat ulang semua node yang sebelumnya dinonaktifkan atau hilang dalam file znode Zookeeper. Hal ini menyebabkan batas default terlampaui dalam situasi tertentu. Amazon EMR sekarang menghapus catatan node yang dinonaktifkan atau hilang yang lebih tua dari satu jam dari file Zookeeper dan batas internal telah ditingkatkan.
Memperbaiki masalah saat permintaan penskalaan gagal untuk klaster besar yang sangat dimanfaatkan saat daemon EMR on-cluster Amazon menjalankan aktivitas pemeriksaan kesehatan, seperti mengumpulkan status node dan status YARN node. HDFS Ini terjadi karena daemon on-cluster tidak dapat mengkomunikasikan data status kesehatan node ke komponen Amazon internal. EMR
Peningkatan daemon EMR on-cluster untuk melacak status node dengan benar saat alamat IP digunakan kembali untuk meningkatkan keandalan selama operasi penskalaan.
SPARK-29683
. Memperbaiki masalah di mana kegagalan pekerjaan terjadi selama penskalaan klaster karena Spark mengasumsikan semua node yang tersedia tidak terdaftar. YARN-9011
. Memperbaiki masalah di mana kegagalan pekerjaan terjadi karena kondisi balapan dalam YARN penonaktifan saat klaster mencoba menaikkan atau menurunkan skala. Memperbaiki masalah dengan kegagalan langkah atau pekerjaan selama penskalaan klaster dengan memastikan bahwa status node selalu konsisten antara EMR daemon on-cluster Amazon dan/. YARN HDFS
Memperbaiki masalah saat operasi klaster seperti pengurangan skala dan pengiriman langkah gagal untuk EMR kluster Amazon yang diaktifkan dengan autentikasi Kerberos. Ini karena EMR daemon on-cluster Amazon tidak memperbarui tiket Kerberos, yang diperlukan untuk berkomunikasi dengan HDFS aman dengan/berjalan di node utama. YARN
-
Mengkonfigurasi cluster untuk memperbaiki masalah kinerja Apache YARN Timeline Server versi 1 dan 1.5
Apache YARN Timeline Server versi 1 dan 1.5 dapat menyebabkan masalah kinerja dengan EMR cluster besar yang sangat aktif, terutama dengan
yarn.resourcemanager.system-metrics-publisher.enabled=true
, yang merupakan pengaturan default di Amazon. EMR YARNTimeline Server v2 open source memecahkan masalah kinerja yang terkait dengan skalabilitas Server YARN Timeline.Solusi lain untuk masalah ini meliputi:
Mengkonfigurasi yarn.resourcemanager. system-metrics-publisher.enabled=false di yarn-site.xml.
Mengaktifkan perbaikan untuk masalah ini saat membuat cluster, seperti yang dijelaskan di bawah ini.
EMRRilis Amazon berikut berisi perbaikan untuk masalah kinerja Server YARN Timeline ini.
EMR5.30.2, 5.31.1, 5.32.1, 5.33.1, 5.34.x, 6.0.1, 6.1.1, 6.2.1, 6.3.1, 6.4.x
Untuk mengaktifkan perbaikan pada salah satu EMR rilis Amazon yang ditentukan di atas, setel properti ini ke
true
dalam JSON file konfigurasi yang diteruskan menggunakan parameteraws emr create-cluster
perintah:--configurations file://./configurations.json
. Atau aktifkan perbaikan menggunakan UI konsol konfigurasi ulang.Contoh isi file configurations.json:
[ { "Classification": "yarn-site", "Properties": { "yarn.resourcemanager.system-metrics-publisher.timeline-server-v1.enable-batch": "true", "yarn.resourcemanager.system-metrics-publisher.enabled": "true" }, "Configurations": [] } ]
Web HDFS dan server HTTPFS dinonaktifkan secara default. Anda dapat mengaktifkan kembali Web HDFS menggunakan konfigurasi Hadoop,.
dfs.webhdfs.enabled
Server HTTPFS dapat dimulai dengan menggunakan.sudo systemctl start hadoop-httpfs
-
HTTPSsekarang diaktifkan secara default untuk repositori Amazon Linux. Jika Anda menggunakan VPCE kebijakan Amazon S3 untuk membatasi akses ke bucket tertentu, Anda harus menambahkan bucket Amazon Linux baru ARN
arn:aws:s3:::amazonlinux-2-repos-$region/*
ke kebijakan Anda (ganti$region
dengan wilayah tempat titik akhir berada). Untuk informasi lebih lanjut, lihat topik ini di forum AWS diskusi. Pengumuman: Amazon Linux 2 sekarang mendukung kemampuan untuk menggunakan HTTPS saat menghubungkan ke repositori paket. -
Hive: Kinerja kueri tulis ditingkatkan dengan mengaktifkan penggunaan direktori awal HDFS untuk pekerjaan terakhir. Data sementara untuk pekerjaan akhir ditulis HDFS alih-alih Amazon S3 dan kinerjanya ditingkatkan karena data dipindahkan dari HDFS lokasi tabel akhir (Amazon S3) alih-alih di antara perangkat Amazon S3.
-
Hive: Peningkatan waktu kompilasi kueri hingga 2.5x dengan Glue metastore Partition Pruning.
-
Secara default, ketika built-in UDFs diteruskan oleh Hive ke Server Metastore Hive, hanya sebagian dari built-in yang UDFs diteruskan ke Glue Metastore karena Glue hanya mendukung operator ekspresi terbatas. Jika Anda mengatur
hive.glue.partition.pruning.client=true
, maka semua pemangkasan partisi terjadi di sisi klien. Jika Anda mengaturhive.glue.partition.pruning.server=true
, maka semua pemangkasan partisi terjadi di sisi server.
Masalah yang diketahui
Kueri Hue tidak berfungsi di Amazon EMR 6.4.0 karena server Apache Hadoop HTTPFS dinonaktifkan secara default. Untuk menggunakan Hue di Amazon EMR 6.4.0, mulai server HTTPFS secara manual di node EMR utama Amazon menggunakan
sudo systemctl start hadoop-httpfs
, atau gunakan langkah Amazon. EMRFitur EMR Notebook Amazon yang digunakan dengan peniruan identitas pengguna Livy tidak berfungsi karena HTTPFS dinonaktifkan secara default. Dalam hal ini, EMR notebook tidak dapat terhubung ke cluster yang mengaktifkan peniruan Livy. Solusinya adalah memulai server HTTPFS sebelum menghubungkan EMR notebook ke cluster menggunakan.
sudo systemctl start hadoop-httpfs
Di Amazon EMR versi 6.4.0, Phoenix tidak mendukung komponen konektor Phoenix.
Untuk menggunakan tindakan Spark dengan Apache Oozie, Anda harus menambahkan konfigurasi berikut ke file Oozie Anda.
workflow.xml
Jika tidak, beberapa perpustakaan penting seperti Hadoop dan EMRFS akan hilang dari classpath dari pelaksana Spark yang diluncurkan Oozie.<spark-opts>--conf spark.yarn.populateHadoopClasspath=true</spark-opts>
Saat Anda menggunakan format lokasi partisi Spark dengan Hive untuk membaca data di Amazon S3, dan Anda menjalankan Spark di Amazon EMR merilis 5.30.0 hingga 5.36.0, dan 6.2.0 hingga 6.9.0, Anda mungkin mengalami masalah yang mencegah klaster membaca data dengan benar. Ini dapat terjadi jika partisi Anda memiliki semua karakteristik berikut:
-
Dua atau lebih partisi dipindai dari tabel yang sama.
-
Setidaknya satu jalur direktori partisi adalah awalan dari setidaknya satu jalur direktori partisi lainnya, misalnya,
s3://bucket/table/p=a
adalah awalan dari.s3://bucket/table/p=a b
-
Karakter pertama yang mengikuti awalan di direktori partisi lain memiliki nilai UTF -8 yang kurang dari
/
karakter (U+002F). Misalnya, karakter spasi (U+0020) yang terjadi antara a dan b masuks3://bucket/table/p=a b
termasuk dalam kategori ini. Perhatikan bahwa ada 14 karakter non-kontrol lainnya:!"#$%&‘()*+,-
. Untuk informasi selengkapnya, lihat UTF-8 tabel pengkodean dan karakter Unicode.
Sebagai solusi untuk masalah ini, setel
spark.sql.sources.fastS3PartitionDiscovery.enabled
konfigurasi kefalse
dalam klasifikasi.spark-defaults
-
6.4.0 versi komponen
Komponen yang EMR diinstal Amazon dengan rilis ini tercantum di bawah ini. Beberapa komponen diinstal sebagai bagian dari paket aplikasi big data. Lainnya unik untuk Amazon EMR dan diinstal untuk proses dan fitur sistem. Ini biasanya dimulai dengan emr
atau aws
. Paket aplikasi data besar dalam EMR rilis Amazon terbaru biasanya merupakan versi terbaru yang ditemukan di komunitas. Kami membuat rilis komunitas tersedia di Amazon EMR secepat mungkin.
Beberapa komponen di Amazon EMR berbeda dari versi komunitas. Komponen ini mempunyai label versi dalam bentuk
. CommunityVersion
-amzn-EmrVersion
dimulai dari 0. Misalnya, jika komponen komunitas open source bernama EmrVersion
myapp-component
dengan versi 2.2 telah dimodifikasi tiga kali untuk dimasukkan dalam EMR rilis Amazon yang berbeda, versi rilisnya terdaftar sebagai2.2-amzn-2
.
Komponen | Versi | Deskripsi |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK |
emr-ddb | 4.16.0 | Konektor Amazon DynamoDB untuk aplikasi ekosistem Hadoop. |
emr-goodies | 3.2.0 | Perpustakaan kenyamanan ekstra untuk ekosistem Hadoop. |
emr-kinesis | 3.5.0 | Konektor Amazon Kinesis untuk aplikasi ekosistem Hadoop. |
emr-notebook-env | 1.3.0 | Conda env untuk emr notebook yang mencakup gateway jupyter korporasi |
emr-s3-dist-cp | 2.18.0 | Aplikasi salinan terdistribusi yang dioptimalkan untuk Amazon S3. |
emr-s3-select | 2.1.0 | EMRKonektor S3Select |
emrfs | 2.47.0 | Konektor Amazon S3 untuk aplikasi ekosistem Hadoop. |
flink-client | 1.13.1 | Skrip dan aplikasi klien baris perintah Apache Flink. |
flink-jobmanager-config | 1.13.1 | Mengelola sumber daya pada EMR node untuk Apache JobManager Flink. |
ganglia-monitor | 3.7.2 | Agen Ganglia tertanam untuk aplikasi ekosistem Hadoop bersama dengan agen pemantauan Ganglia. |
ganglia-metadata-collector | 3.7.2 | Kolektor metadata Ganglia untuk menggabungkan metrik dari agen pemantauan Ganglia. |
ganglia-web | 3.7.1 | Aplikasi web untuk melihat metrik yang dikumpulkan oleh kolektor metadata Ganglia. |
hadoop-client | 3.2.1-amzn-4 | Klien baris perintah Hadoop seperti 'hdfs', 'Hadoop', atau 'yarn'. |
hadoop-hdfs-datanode | 3.2.1-amzn-4 | HDFSlayanan tingkat simpul untuk menyimpan blok. |
hadoop-hdfs-library | 3.2.1-amzn-4 | HDFSklien baris perintah dan pustaka |
hadoop-hdfs-namenode | 3.2.1-amzn-4 | HDFSlayanan untuk melacak nama file dan lokasi blok. |
hadoop-hdfs-journalnode | 3.2.1-amzn-4 | HDFSlayanan untuk mengelola jurnal filesystem Hadoop pada klaster HA. |
hadoop-httpfs-server | 3.2.1-amzn-4 | HTTPtitik akhir untuk HDFS operasi. |
hadoop-kms-server | 3.2.1-amzn-4 | Server manajemen kunci kriptografi berdasarkan Hadoop. KeyProvider API |
hadoop-mapred | 3.2.1-amzn-4 | MapReduce pustaka mesin eksekusi untuk menjalankan MapReduce aplikasi. |
hadoop-yarn-nodemanager | 3.2.1-amzn-4 | YARNlayanan untuk mengelola kontainer pada node individu. |
hadoop-yarn-resourcemanager | 3.2.1-amzn-4 | YARNlayanan untuk mengalokasikan dan mengelola sumber daya cluster dan aplikasi terdistribusi. |
hadoop-yarn-timeline-server | 3.2.1-amzn-4 | Layanan untuk mengambil informasi terkini dan historis untuk YARN aplikasi. |
hbase-hmaster | 2.4.4-amzn-0 | Layanan untuk HBase cluster yang bertanggung jawab untuk koordinasi Daerah dan pelaksanaan perintah administratif. |
hbase-region-server | 2.4.4-amzn-0 | Layanan untuk melayani satu atau lebih HBase wilayah. |
hbase-client | 2.4.4-amzn-0 | HBaseklien baris perintah. |
hbase-rest-server | 2.4.4-amzn-0 | Layanan menyediakan RESTful HTTP titik akhir untukHBase. |
hbase-thrift-server | 2.4.4-amzn-0 | Layanan menyediakan titik akhir Thrift ke. HBase |
hcatalog-client | 3.1.2-amzn-5 | Klien baris perintah 'hcat' untuk memanipulasi hcatalog-server. |
hcatalog-server | 3.1.2-amzn-5 | Penyediaan layananHCatalog, tabel dan lapisan manajemen penyimpanan untuk aplikasi terdistribusi. |
hcatalog-webhcat-server | 3.1.2-amzn-5 | HTTPendpoint menyediakan REST antarmuka keHCatalog. |
hive-client | 3.1.2-amzn-5 | Klien baris perintah Hive. |
hive-hbase | 3.1.2-amzn-5 | Klien Hive-hbase. |
hive-metastore-server | 3.1.2-amzn-5 | Layanan untuk mengakses metastore Hive, repositori semantik menyimpan metadata untuk operasi Hadoop. SQL |
hive-server2 | 3.1.2-amzn-5 | Layanan untuk menerima kueri Hive sebagai permintaan web. |
hudi | 0.8.0-amzn-0 | Kerangka kerja pemrosesan tambahan untuk menyalakan alur data pada latensi rendah dan efisiensi tinggi. |
hudi-presto | 0.8.0-amzn-0 | Perpustakaan paket untuk menjalankan Presto dengan Hudi. |
hudi-trino | 0.8.0-amzn-0 | Perpustakaan bundel untuk menjalankan Trino dengan Hudi. |
hudi-spark | 0.8.0-amzn-0 | Perpustakaan paket untuk menjalankan Spark dengan Hudi. |
hue-server | 4.9.0 | Aplikasi web untuk menganalisis data menggunakan aplikasi ekosistem Hadoop |
jupyterhub | 1.4.1 | Server multi-pengguna untuk notebook Jupyter |
livy-server | 0.7.1-inkubasi | RESTantarmuka untuk berinteraksi dengan Apache Spark |
nginx | 1.12.1 | nginx [engine x] adalah server proxy HTTP terbalik |
mxnet | 1.8.0 | Perpustakaan yang fleksibel, dapat diskalakan, dan efisien untuk deep learning. |
mariadb-server | 5.5.68+ | Server basis data MariaDB. |
nvidia-cuda | 10.1.243 | Driver Nvidia dan kit alat Cuda |
oozie-client | 5.2.1 | Klien baris perintah Oozie. |
oozie-server | 5.2.1 | Layanan untuk menerima permintaan alur kerja Oozie. |
opencv | 4.5.0 | Perpustakaan Visi Komputer Sumber Terbuka. |
phoenix-library | 5.1.2 | Perpustakaan phoenix untuk server dan klien |
phoenix-query-server | 5.1.2 | Server ringan yang menyediakan JDBC akses serta Protocol Buffer dan akses JSON format ke Avatica API |
presto-coordinator | 0.254.1-amzn-0 | Layanan untuk menerima kueri dan mengelola eksekusi kueri antara presto-worker. |
presto-worker | 0.254.1-amzn-0 | Layanan untuk mengeksekusi potongan kueri. |
presto-client | 0.254.1-amzn-0 | Klien baris perintah Presto yang diinstal pada master klaster HA yang siaga di mana server Presto server tidak dimulai. |
trino-coordinator | 359 | Layanan untuk menerima kueri dan mengelola eksekusi kueri di antara trino-workers. |
trino-worker | 359 | Layanan untuk mengeksekusi potongan kueri. |
trino-client | 359 | Klien baris perintah Trino yang diinstal pada master siaga cluster HA di mana server Trino tidak dimulai. |
pig-client | 0.17.0 | Klien baris perintah Pig. |
r | 4.0.2 | Proyek R untuk Komputasi Statistik |
ranger-kms-server | 2.0.0 | Sistem Pengelolaan Kunci Ranger Apache |
spark-client | 3.1.2-amzn-0 | Klien baris perintah Spark. |
spark-history-server | 3.1.2-amzn-0 | Web UI untuk melihat log acara untuk seluruh masa pakai aplikasi Spark. |
spark-on-yarn | 3.1.2-amzn-0 | Mesin eksekusi dalam memori untukYARN. |
spark-yarn-slave | 3.1.2-amzn-0 | Perpustakaan Apache Spark dibutuhkan oleh budak. YARN |
spark-rapids | 0.4.1 | RAPIDSPlugin Nvidia Spark yang mempercepat Apache Spark dengan. GPUs |
sqoop-client | 1.4.7 | Klien baris perintah Apache Sqoop. |
tensorflow | 2.4.1 | TensorFlow pustaka perangkat lunak open source untuk perhitungan numerik kinerja tinggi. |
tez-on-yarn | 0.9.2 | YARNAplikasi tez dan perpustakaan. |
webserver | 2.4.41+ | HTTPServer Apache. |
zeppelin-server | 0.9.0 | Notebook berbasis web yang memungkinkan analisis data interaktif. |
zookeeper-server | 3.5.7 | Layanan terpusat untuk menjaga informasi konfigurasi, penamaan, yang menyediakan sinkronisasi terdistribusi, dan menyediakan layanan grup. |
zookeeper-client | 3.5.7 | ZooKeeper klien baris perintah. |
6.4.0 klasifikasi konfigurasi
Klasifikasi konfigurasi memungkinkan Anda menyesuaikan aplikasi. Ini sering sesuai dengan XML file konfigurasi untuk aplikasi, sepertihive-site.xml
. Untuk informasi selengkapnya, lihat Konfigurasikan aplikasi.
Tindakan konfigurasi ulang terjadi ketika Anda menentukan konfigurasi untuk grup instans di klaster yang sedang berjalan. Amazon EMR hanya memulai tindakan konfigurasi ulang untuk klasifikasi yang Anda modifikasi. Untuk informasi selengkapnya, lihat Lakukan konfigurasi ulang pada grup instans di klaster yang sedang berjalan.
Klasifikasi | Deskripsi | Tindakan Konfigurasi Ulang |
---|---|---|
capacity-scheduler | Ubah nilai dalam file capacity-scheduler.xml Hadoop. | Restarts the ResourceManager service. |
container-executor | Ubah nilai dalam file container-executor.cfg YARN Hadoop. | Not available. |
container-log4j | Ubah nilai dalam file container-log4j.properties YARN Hadoop. | Not available. |
core-site | Ubah nilai dalam file core-site.xml Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | Ubah pengaturan terkait docker. | Not available. |
emrfs-site | Ubah EMRFS pengaturan. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | Ubah pengaturan flink-conf.yaml. | Restarts Flink history server. |
flink-log4j | Ubah pengaturan log4j.properties Flink. | Restarts Flink history server. |
flink-log4j-session | Ubah pengaturan Flink log4j-session.properties untuk sesi Kubernetes/Yarn. | Restarts Flink history server. |
flink-log4j-cli | Ubah pengaturan log4j-cli.properties Flink. | Restarts Flink history server. |
hadoop-env | Ubah nilai dalam lingkungan Hadoop untuk semua komponen Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | Ubah nilai dalam file log4j.properties Hadoop ini. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | Ubah konfigurasi server ssl hadoop | Not available. |
hadoop-ssl-client | Ubah konfigurasi klien ssl hadoop | Not available. |
hbase | Pengaturan EMR yang dikurasi Amazon untuk Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | Ubah nilai HBase di lingkungan. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | Ubah nilai dalam file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | Ubah nilai dalam file HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | Ubah nilai dalam HBase file hbase-policy.xml. | Not available. |
hbase-site | Ubah nilai dalam HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | Konfigurasikan zona HDFS enkripsi. | This classification should not be reconfigured. |
hdfs-env | Ubah nilai di HDFS lingkungan. | Restarts Hadoop HDFS services Namenode, Datanode, and ZKFC. |
hdfs-site | Ubah nilai dalam HDFS hdfs-site.xml. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | Ubah nilai HCatalog di lingkungan. | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | Ubah nilai di HCatalog jndi.properties. | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | Ubah nilai HCatalog proto-hive-site dalam.xml's. | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | Ubah nilai di lingkungan HCatalog WebHCat. | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | Ubah nilai di ebHCat log4j2.properties HCatalog W. | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | Ubah nilai dalam file webhcat-site.xml HCatalog WebHCat. | Restarts Hive WebHCat server. |
hive | Pengaturan EMR yang dikurasi Amazon untuk Apache Hive. | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | Ubah nilai dalam file beeline-log4j2.properties Hive. | Not available. |
hive-parquet-logging | Ubah nilai dalam file parquet-logging.properties Hive. | Not available. |
hive-env | Ubah nilai dalam lingkungan Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | Ubah nilai dalam file hive-exec-log 4j2.properties Hive. | Not available. |
hive-llap-daemon-log4j2 | Ubah nilai dalam file llap-daemon-log 4j2.properties Hive. | Not available. |
hive-log4j2 | Ubah nilai dalam file hive-log4j2.properties Hive. | Not available. |
hive-site | Ubah nilai dalam file hive-site.xml Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | Ubah nilai dalam file hiveserver2-site.xml Hive Server2 | Not available. |
hue-ini | Ubah nilai dalam file ini Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | Ubah nilai di HTTPFS lingkungan. | Restarts Hadoop Httpfs service. |
httpfs-site | Ubah nilai dalam file httpfs-site.xml Hadoop. | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | Ubah nilai dalam file kms-acls.xml Hadoop. | Not available. |
hadoop-kms-env | Ubah nilai di lingkungan HadoopKMS. | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | Ubah nilai dalam file kms-log4j.properties Hadoop. | Not available. |
hadoop-kms-site | Ubah nilai dalam file kms-site.xml Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | Ubah nilai di lingkungan Hudi. | Not available. |
hudi-defaults | Ubah nilai dalam file hudi-defaults.conf Hudi. | Not available. |
jupyter-notebook-conf | Ubah nilai dalam file jupyter_notebook_config.py Jupyter Notebook. | Not available. |
jupyter-hub-conf | Ubah nilai dalam JupyterHubs file jupyterhub_config.py. | Not available. |
jupyter-s3-conf | Konfigurasikan persistensi Jupyter Notebook S3. | Not available. |
jupyter-sparkmagic-conf | Ubah nilai dalam file config.json Sparkmagic. | Not available. |
livy-conf | Ubah nilai dalam file livy.conf Livy. | Restarts Livy Server. |
livy-env | Ubah nilai di lingkungan Livy. | Restarts Livy Server. |
livy-log4j | Ubah pengaturan Livy log4j.properties. | Restarts Livy Server. |
mapred-env | Ubah nilai di lingkungan MapReduce aplikasi. | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | Ubah nilai dalam file mapred-site.xml MapReduce aplikasi. | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | Ubah nilai di lingkungan Oozie. | Restarts Oozie. |
oozie-log4j | Ubah nilai dalam file oozie-log4j.properties Oozie. | Restarts Oozie. |
oozie-site | Ubah nilai dalam file oozie-site.xml Oozie. | Restarts Oozie. |
phoenix-hbase-metrics | Ubah nilai dalam file hadoop-metrics2-hbase.properties Phoenix. | Not available. |
phoenix-hbase-site | Ubah nilai dalam file hbase-site.xml Phoenix. | Not available. |
phoenix-log4j | Ubah nilai dalam file log4j.properties Phoenix. | Restarts Phoenix-QueryServer. |
phoenix-metrics | Ubah nilai dalam file hadoop-metrics2-phoenix.properties Phoenix. | Not available. |
pig-env | Ubah nilai di lingkungan Pig. | Not available. |
pig-properties | Ubah nilai dalam file pig.properties Pig. | Restarts Oozie. |
pig-log4j | Ubah nilai dalam file log4j.properties Pig. | Not available. |
presto-log | Ubah nilai dalam file log.properties Presto. | Restarts Presto-Server (for PrestoDB) |
presto-config | Ubah nilai dalam file config.properties Presto. | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | Ubah nilai dalam file password-authenticator.properties Presto. | Not available. |
presto-env | Ubah nilai dalam file presto-env.sh Presto. | Restarts Presto-Server (for PrestoDB) |
presto-node | Ubah nilai dalam file node.properties Presto. | Not available. |
presto-connector-blackhole | Ubah nilai dalam file blackhole.properties Presto. | Not available. |
presto-connector-cassandra | Ubah nilai dalam file cassandra.properties Presto. | Not available. |
presto-connector-hive | Ubah nilai dalam file hive.properties Presto. | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | Ubah nilai dalam file jmx.properties Presto. | Not available. |
presto-connector-kafka | Ubah nilai dalam file kafka.properties Presto. | Not available. |
presto-connector-localfile | Ubah nilai dalam file localfile.properties Presto. | Not available. |
presto-connector-memory | Ubah nilai dalam file memory.properties Presto. | Not available. |
presto-connector-mongodb | Ubah nilai dalam file mongodb.properties Presto. | Not available. |
presto-connector-mysql | Ubah nilai dalam file mysql.properties Presto. | Not available. |
presto-connector-postgresql | Ubah nilai dalam file postgresql.properties Presto. | Not available. |
presto-connector-raptor | Ubah nilai dalam file raptor.properties Presto. | Not available. |
presto-connector-redis | Ubah nilai dalam file redis.properties Presto. | Not available. |
presto-connector-redshift | Ubah nilai dalam file redshift.properties Presto. | Not available. |
presto-connector-tpch | Ubah nilai dalam file tpch.properties Presto. | Not available. |
presto-connector-tpcds | Ubah nilai dalam file tpcds.properties Presto. | Not available. |
trino-log | Ubah nilai dalam file log.properties Trino. | Restarts Trino-Server (for Trino) |
trino-config | Ubah nilai dalam file config.properties Trino. | Restarts Trino-Server (for Trino) |
trino-password-authenticator | Ubah nilai dalam file password-authenticator.properties Trino. | Restarts Trino-Server (for Trino) |
trino-env | Ubah nilai dalam file trino-env.sh Trino. | Restarts Trino-Server (for Trino) |
trino-node | Ubah nilai dalam file node.properties Trino. | Not available. |
trino-connector-blackhole | Ubah nilai dalam file blackhole.properties Trino. | Not available. |
trino-connector-cassandra | Ubah nilai dalam file cassandra.properties Trino. | Not available. |
trino-connector-hive | Ubah nilai dalam file hive.properties Trino. | Restarts Trino-Server (for Trino) |
trino-connector-jmx | Ubah nilai dalam file jmx.properties Trino. | Not available. |
trino-connector-kafka | Ubah nilai dalam file kafka.properties Trino. | Not available. |
trino-connector-localfile | Ubah nilai dalam file localfile.properties Trino. | Not available. |
trino-connector-memory | Ubah nilai dalam file memory.properties Trino. | Not available. |
trino-connector-mongodb | Ubah nilai dalam file mongodb.properties Trino. | Not available. |
trino-connector-mysql | Ubah nilai dalam file mysql.properties Trino. | Not available. |
trino-connector-postgresql | Ubah nilai dalam file postgresql.properties Trino. | Not available. |
trino-connector-raptor | Ubah nilai dalam file raptor.properties Trino. | Not available. |
trino-connector-redis | Ubah nilai dalam file redis.properties Trino. | Not available. |
trino-connector-redshift | Ubah nilai dalam file redshift.properties Trino. | Not available. |
trino-connector-tpch | Ubah nilai dalam file tpch.properties Trino. | Not available. |
trino-connector-tpcds | Ubah nilai dalam file tpcds.properties Trino. | Not available. |
ranger-kms-dbks-site | Ubah nilai dalam file dbks-site.xml dari Ranger. KMS | Restarts Ranger KMS Server. |
ranger-kms-site | Ubah nilai dalam ranger-kms-site file.xml.Ranger. KMS | Restarts Ranger KMS Server. |
ranger-kms-env | Ubah nilai di KMS lingkungan Ranger. | Restarts Ranger KMS Server. |
ranger-kms-log4j | Ubah nilai dalam file kms-log4j.properties dari Ranger. KMS | Not available. |
ranger-kms-db-ca | Ubah nilai untuk file CA di S3 untuk SQL SSL koneksi Saya dengan RangerKMS. | Not available. |
spark | Pengaturan EMR yang dikurasi Amazon untuk Apache Spark. | This property modifies spark-defaults. See actions there. |
spark-defaults | Ubah nilai dalam file spark-defaults.conf Spark. | Restarts Spark history server and Spark thrift server. |
spark-env | Ubah nilai di lingkungan Spark. | Restarts Spark history server and Spark thrift server. |
spark-hive-site | Ubah nilai dalam file hive-site.xml Spark | Not available. |
spark-log4j | Ubah nilai dalam file log4j.properties Spark. | Restarts Spark history server and Spark thrift server. |
spark-metrics | Ubah nilai dalam file metrics.properties Spark. | Restarts Spark history server and Spark thrift server. |
sqoop-env | Ubah nilai dalam lingkungan Sqoop. | Not available. |
sqoop-oraoop-site | Ubah nilai dalam file oraoop-site.xml Sqoop OraOop ini. | Not available. |
sqoop-site | Ubah nilai dalam file sqoop-site.xml Sqoop. | Not available. |
tez-site | Ubah nilai dalam file tez-site.xml Tez. | Restart Oozie and HiveServer2. |
yarn-env | Ubah nilai di YARN lingkungan. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | Ubah nilai dalam YARN file yarn-site.xml. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | Ubah nilai di lingkungan Zeppelin. | Restarts Zeppelin. |
zeppelin-site | Ubah pengaturan konfigurasi di zeppelin-site.xml. | Restarts Zeppelin. |
zookeeper-config | Ubah nilai dalam ZooKeeper file zoo.cfg. | Restarts Zookeeper server. |
zookeeper-log4j | Ubah nilai dalam file ZooKeeper log4j.properties. | Restarts Zookeeper server. |