Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Amazon EMR merilis 6.2.0
versi aplikasi 6.2.0
Aplikasi berikut didukung dalam rilis ini: Flink
Tabel di bawah ini mencantumkan versi aplikasi yang tersedia dalam rilis Amazon ini EMR dan versi aplikasi di tiga EMR rilis Amazon sebelumnya (bila berlaku).
Untuk riwayat lengkap versi aplikasi untuk setiap rilis AmazonEMR, lihat topik berikut:
emr-6.2.0 | emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | |
---|---|---|---|---|
AWS SDK untuk Java | 1.11.880 | 1.11.828 | 1.11.828 | 1.11.711 |
Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 |
Skala | 2.12.10 | 2.12.10 | 2.12.10 | 2.12.10 |
AmazonCloudWatchAgent | - | - | - | - |
kuala | - | - | - | - |
Flink | 1.11.2 | 1.11.0 | 1.11.0 | - |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.2.6-amzn-0 | 2.2.5 | 2.2.5 | 2.2.3 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.6.0-amzn-1 | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 |
Hue | 4.8.0 | 4.7.1 | 4.7.1 | 4.4.0 |
Gunung es | - | - | - | - |
JupyterEnterpriseGateway | 2.1.0 | - | - | - |
JupyterHub | 1.1.0 | 1.1.0 | 1.1.0 | 1.0.0 |
Livy | 0.7.0 | 0.7.0 | 0.7.0 | 0.6.0 |
MXNet | 1.7.0 | 1.6.0 | 1.6.0 | 1.5.1 |
Mahout | - | - | - | - |
Oozie | 5.2.0 | 5.2.0 | 5.2.0 | 5.1.0 |
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | 0.17.0 | - |
Presto | 0.238.3 | 0,232 | 0,232 | 0,230 |
Spark | 3.0.1 | 3.0.0 | 3.0.0 | 2.4.4 |
Sqoop | 1.4.7 | 1.4.7 | 1.4.7 | - |
TensorFlow | 2.3.1 | 2.1.0 | 2.1.0 | 1.14.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (PrestoSQL) | 343 | 338 | 338 | - |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
catatan rilis 6.2.0
Catatan rilis berikut mencakup informasi untuk EMR rilis Amazon 6.2.0. Perubahan bersifat relatif terhadap versi 6.1.0.
Tanggal rilis awal: 09 Desember 2020
Tanggal terakhir dimutakhirkan: Okt 04, 2021
Aplikasi-aplikasi yang didukung
AWS SDK for Java versi 1.11.828
emr-record-server versi 1.7.0
Flink versi 1.11.2
Ganglia versi 3.7.2
Hadoop versi 3.2.1-amzn-1
HBaseversi 2.2.6-amzn-0
HBase-operator-tools 1.0.0
HCatalogversi 3.1.2-amzn-0
Hive versi 3.1.2-amzn-3
Hudi versi 0.6.0-amzn-1
Hue versi 4.8.0
JupyterHub versi 1.1.0
Livy versi 0.7.0
MXNetversi 1.7.0
Oozie versi 5.2.0
Phoenix versi 5.0.0
Pig versi 0.17.0
Presto versi 0.238.3-amzn-1
Presto SQL versi 343
Spark versi 3.0.1-amzn-0
spark-rapids versi 0.2.0
TensorFlow versi 2.3.1
Zeppelin versi 0.9.0-preview1
Zookeeper versi 3.4.14
Konektor dan driver: DynamoDB Connector 4.16.0
Fitur baru
HBase: Menghapus ganti nama dalam fase komit dan menambahkan HFile pelacakan persisten. Lihat HFilePelacakan Persisten di Panduan EMR Rilis Amazon.
HBase: Backported Buat konfigurasi yang memaksa untuk menyimpan blok
pada pemadatan. PrestoDB: Perbaikan Pemangkasan Partisi Dinamis. Join Reorder berbasis aturan bekerja pada data non-partisi.
Kebijakan terkelola tercakup: Untuk menyelaraskan dengan praktik AWS terbaik, Amazon EMR telah memperkenalkan kebijakan EMR terkelola default dengan cakupan v2 sebagai pengganti kebijakan yang tidak digunakan lagi. Lihat Kebijakan yang EMR Dikelola Amazon.
Status dukungan Instance Metadata Service (IMDS) V2: Untuk Amazon EMR 6.2 atau versi lebih baru, EMR komponen Amazon digunakan IMDSv2 untuk semua panggilan. IMDS Untuk IMDS panggilan dalam kode aplikasi Anda, Anda dapat menggunakan keduanya IMDSv1 danIMDSv2, atau mengkonfigurasi IMDS untuk digunakan hanya IMDSv2 untuk keamanan tambahan. Jika Anda menonaktifkan IMDSv1 rilis Amazon EMR 6.x sebelumnya, ini menyebabkan kegagalan startup cluster.
Perubahan, penyempurnaan, dan masalah yang diselesaikan
-
Ini adalah rilis untuk memperbaiki masalah dengan Amazon EMR Scaling ketika gagal meningkatkan/menurunkan klaster dengan sukses atau menyebabkan kegagalan aplikasi.
Memperbaiki masalah saat permintaan penskalaan gagal untuk klaster besar yang sangat dimanfaatkan saat daemon EMR on-cluster Amazon menjalankan aktivitas pemeriksaan kesehatan, seperti mengumpulkan status node dan status YARN node. HDFS Ini terjadi karena daemon on-cluster tidak dapat mengkomunikasikan data status kesehatan node ke komponen Amazon internal. EMR
Peningkatan daemon EMR on-cluster untuk melacak status node dengan benar saat alamat IP digunakan kembali untuk meningkatkan keandalan selama operasi penskalaan.
SPARK-29683
. Memperbaiki masalah di mana kegagalan pekerjaan terjadi selama penskalaan klaster karena Spark mengasumsikan semua node yang tersedia tidak terdaftar. YARN-9011
. Memperbaiki masalah di mana kegagalan pekerjaan terjadi karena kondisi balapan dalam YARN penonaktifan saat klaster mencoba menaikkan atau menurunkan skala. Memperbaiki masalah dengan kegagalan langkah atau pekerjaan selama penskalaan klaster dengan memastikan bahwa status node selalu konsisten antara EMR daemon on-cluster Amazon dan/. YARN HDFS
Memperbaiki masalah saat operasi klaster seperti pengurangan skala dan pengiriman langkah gagal untuk EMR kluster Amazon yang diaktifkan dengan autentikasi Kerberos. Ini karena EMR daemon on-cluster Amazon tidak memperbarui tiket Kerberos, yang diperlukan untuk berkomunikasi dengan HDFS aman dengan/berjalan di node utama. YARN
EMRRilis Amazon yang lebih baru memperbaiki masalah dengan batas “Max open files” yang lebih rendah pada yang lebih lama AL2 di AmazonEMR. Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan yang lebih baru sekarang menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi.
Spark: Perbaikan performa dalam waktu aktif Spark.
Masalah yang diketahui
Amazon EMR 6.2 memiliki izin yang salah disetel pada direktori the /etc/cron.d/libinstance-controller-java file in EMR 6.2.0. Permissions on the file are 645 (-rw-r--r-x), when they should be 644 (-rw-r--r--). As a result, Amazon EMR version 6.2 does not log instance-state logs, and the /emr/instance -logs kosong. Masalah ini diperbaiki di Amazon EMR 6.3.0 dan yang lebih baru.
Untuk mengatasi masalah ini, jalankan skrip berikut sebagai tindakan bootstrap saat peluncuran cluster.
#!/bin/bash sudo chmod 644 /etc/cron.d/libinstance-controller-java
Untuk Amazon EMR 6.2.0 dan 6.3.0 kluster subnet pribadi, Anda tidak dapat mengakses UI web Ganglia. Anda akan mendapatkan pesan kesalahan "akses ditolak (403)". Web lainUIs, seperti Spark, Hue,, Zeppelin JupyterHub, Livy, dan Tez bekerja secara normal. Akses UI web Ganglia pada klaster subnet publik juga bekerja secara normal. Untuk mengatasi masalah ini, mulai ulang layanan httpd pada node utama dengan
sudo systemctl restart httpd
. Masalah ini telah diperbaiki di Amazon EMR 6.4.0.Ada masalah di Amazon EMR 6.2.0 di mana httpd terus gagal, menyebabkan Ganglia tidak tersedia. Anda mendapatkan pesan kesalahan "tidak dapat menyambung ke server". Untuk memperbaiki cluster yang sudah berjalan dengan masalah ini, SSH ke node utama cluster dan tambahkan baris
Listen 80
ke file yanghttpd.conf
terletak di/etc/httpd/conf/httpd.conf
. Masalah ini telah diperbaiki di Amazon EMR 6.3.0.HTTPDgagal pada cluster EMR 6.2.0 saat Anda menggunakan konfigurasi keamanan. Hal ini membuat antarmuka pengguna aplikasi web Ganglia tidak tersedia. Untuk mengakses antarmuka pengguna aplikasi web Ganglia, tambahkan
Listen 80
ke/etc/httpd/conf/httpd.conf
file pada node utama cluster Anda. Untuk informasi tentang menghubungkan ke klaster Anda, lihat Connect to the Primary Node Using SSH.EMRNotebook juga gagal membuat koneksi dengan cluster EMR 6.2.0 saat Anda menggunakan konfigurasi keamanan. Notebook tersebut akan gagal untuk membuat daftar kernel dan mengirimkan tugas Spark. Kami menyarankan Anda menggunakan EMR Notebook dengan versi Amazon lain EMR sebagai gantinya.
-
Turunkan batas “Maks open files” pada yang lebih lama AL2 [diperbaiki dalam rilis yang lebih baru]. EMRRilis Amazon: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, dan emr-6.2.0 didasarkan pada versi lama Linux ofAmazon 2 ()AL2, yang memiliki pengaturan ulimit yang lebih rendah untuk “File terbuka maksimum” ketika cluster Amazon dibuat dengan default. EMR AMI Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan kemudian menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi. Rilis dengan batas file terbuka yang lebih rendah menyebabkan kesalahan “Terlalu banyak file terbuka” saat mengirimkan pekerjaan Spark. Dalam rilis yang terkena dampak, EMR default Amazon AMI memiliki pengaturan ulimit default 4096 untuk “File terbuka maksimum,” yang lebih rendah dari batas file 65536 di Linux 2. latestAmazon AMI Pengaturan ulimit yang lebih rendah untuk "Maksimal file terbuka" menyebabkan kegagalan tugas Spark ketika driver dan pelaksana mencoba untuk membuka lebih dari 4096 file. Untuk memperbaiki masalah ini, Amazon EMR memiliki skrip bootstrap action (BA) yang menyesuaikan pengaturan ulimit pada pembuatan cluster.
Jika Anda menggunakan EMR versi Amazon lama yang tidak memiliki perbaikan permanen untuk masalah ini, solusi berikut memungkinkan Anda untuk secara eksplisit menyetel ulimit pengontrol instans ke maksimum 65536 file.
Mengatur secara eksplisit ulimit dari baris perintah
Edit
/etc/systemd/system/instance-controller.service
untuk menambahkan parameter berikut ke bagian Layanan.LimitNOFILE=65536
LimitNPROC=65536
Mulai ulang InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
Tetapkan ulimit menggunakan tindakan bootstrap (BA)
Anda juga dapat menggunakan skrip tindakan bootstrap (BA) untuk mengkonfigurasi ulimit instans-pengendali menjadi 65536 file saat pembuatan klaster.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
penting
Amazon EMR 6.1.0 dan 6.2.0 menyertakan masalah kinerja yang secara kritis dapat memengaruhi semua operasi penyisipan, peningkatan, dan penghapusan Hudi. Jika Anda berencana untuk menggunakan Hudi dengan Amazon EMR 6.1.0 atau 6.2.0, Anda harus menghubungi AWS dukungan untuk mendapatkan Hudi yang ditambal. RPM
-
penting
EMRcluster yang menjalankan Amazon Linux atau Amazon Linux 2 Amazon Machine Images (AMIs) menggunakan perilaku default Amazon Linux, dan tidak secara otomatis mengunduh dan menginstal pembaruan kernel penting dan penting yang memerlukan reboot. Ini adalah perilaku yang sama dengan EC2 instance Amazon lainnya yang menjalankan Amazon Linux AMI default. Jika pembaruan perangkat lunak Amazon Linux baru yang memerlukan reboot (seperti kernelNVIDIA,, dan CUDA pembaruan) tersedia setelah EMR rilis Amazon tersedia, instance EMR cluster yang menjalankan default AMI tidak secara otomatis mengunduh dan menginstal pembaruan tersebut. Untuk mendapatkan pembaruan kernel, Anda dapat menyesuaikan Amazon Anda EMR AMI untuk menggunakan Amazon Linux terbaru AMI.
Artefak Amazon EMR 6.2.0 Maven tidak dipublikasikan. Mereka akan diterbitkan dengan rilis Amazon di masa depanEMR.
HFilePelacakan persisten menggunakan tabel sistem HBase storefile tidak mendukung fitur replikasi HBase wilayah. Untuk informasi selengkapnya tentang replikasi HBase wilayah, lihat Bacaan Tersedia Tinggi Konsisten Waktu
. Perbedaan versi bucketing Amazon EMR EMR 6.x dan 5.x Hive
EMR5.x menggunakan OOS Apache Hive 2, sedangkan di EMR 6.x menggunakan OOS Apache Hive 3. Hive2 sumber terbuka menggunakan Bucketing versi 1, sementara Hive3 sumber terbuka menggunakan Bucketing versi 2. Perbedaan versi bucketing antara Hive 2 (EMR5.x) dan Hive 3 (EMR6.x) berarti fungsi hashing bucketing Hive secara berbeda. Lihat contoh di bawah ini.
Tabel berikut adalah contoh yang dibuat di EMR 6.x dan EMR 5.x, masing-masing.
-- Using following LOCATION in EMR 6.x CREATE TABLE test_bucketing (id INT, desc STRING) PARTITIONED BY (day STRING) CLUSTERED BY(id) INTO 128 BUCKETS LOCATION 's3://your-own-s3-bucket/emr-6-bucketing/'; -- Using following LOCATION in EMR 5.x LOCATION 's3://your-own-s3-bucket/emr-5-bucketing/';
Memasukkan data yang sama di EMR 6.x dan EMR 5.x.
INSERT INTO test_bucketing PARTITION (day='01') VALUES(66, 'some_data'); INSERT INTO test_bucketing PARTITION (day='01') VALUES(200, 'some_data');
Memeriksa lokasi S3, menunjukkan nama file bucketing berbeda, karena fungsi hashing berbeda antara EMR 6.x (Hive 3) dan 5.x (Hive 2). EMR
[hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-6-bucketing/day=01/ 2020-10-21 20:35:16 13 000025_0 2020-10-21 20:35:22 14 000121_0 [hadoop@ip-10-0-0-122 ~]$ aws s3 ls s3://your-own-s3-bucket/emr-5-bucketing/day=01/ 2020-10-21 20:32:07 13 000066_0 2020-10-21 20:32:51 14 000072_0
Anda juga dapat melihat perbedaan versi dengan menjalankan perintah berikut di Hive CLI di EMR 6.x. Perhatikan bahwa ia menghasilkan pem-bucket-an versi 2.
hive> DESCRIBE FORMATTED test_bucketing; ... Table Parameters: bucketing_version 2 ...
-
Masalah yang diketahui dalam cluster dengan beberapa node primer dan otentikasi Kerberos
Jika Anda menjalankan cluster dengan beberapa node utama dan otentikasi Kerberos di EMR Amazon rilis 5.20.0 dan yang lebih baru, Anda mungkin mengalami masalah dengan operasi klaster seperti penurunan skala atau pengiriman langkah, setelah klaster berjalan selama beberapa waktu. Periode waktunya tergantung pada masa validitas tiket Kerberos yang Anda tetapkan. Masalah menurunkan skala akan berdampak pada permintaan menurunkan skala otomatis dan permintaan menurunkan skala eksplisit yang Anda kirimkan. Operasi klaster tambahan juga dapat terkena dampak.
Pemecahan masalah:
-
SSHsebagai
hadoop
pengguna ke simpul utama utama EMR cluster dengan beberapa node primer. -
Jalankan perintah berikut untuk memperbarui tiket Kerberos untuk pengguna
hadoop
.kinit -kt <keytab_file> <principal>
Biasanya, fail keytab terletak di
/etc/hadoop.keytab
dan file utama-nya dalam bentukhadoop/<hostname>@<REALM>
.
catatan
Pemecahan masalah ini akan efektif untuk jangka waktu selama tiket Kerberos berlaku. Durasi ini adalah 10 jam secara default, tetapi dapat dikonfigurasi dengan pengaturan Kerberos Anda. Anda harus menjalankan kembali perintah di atas setelah tiket Kerberos berakhir.
-
Saat Anda menggunakan format lokasi partisi Spark dengan Hive untuk membaca data di Amazon S3, dan Anda menjalankan Spark di Amazon EMR merilis 5.30.0 hingga 5.36.0, dan 6.2.0 hingga 6.9.0, Anda mungkin mengalami masalah yang mencegah klaster membaca data dengan benar. Ini dapat terjadi jika partisi Anda memiliki semua karakteristik berikut:
-
Dua atau lebih partisi dipindai dari tabel yang sama.
-
Setidaknya satu jalur direktori partisi adalah awalan dari setidaknya satu jalur direktori partisi lainnya, misalnya,
s3://bucket/table/p=a
adalah awalan dari.s3://bucket/table/p=a b
-
Karakter pertama yang mengikuti awalan di direktori partisi lain memiliki nilai UTF -8 yang kurang dari
/
karakter (U+002F). Misalnya, karakter spasi (U+0020) yang terjadi antara a dan b masuks3://bucket/table/p=a b
termasuk dalam kategori ini. Perhatikan bahwa ada 14 karakter non-kontrol lainnya:!"#$%&‘()*+,-
. Untuk informasi selengkapnya, lihat UTF-8 tabel pengkodean dan karakter Unicode.
Sebagai solusi untuk masalah ini, setel
spark.sql.sources.fastS3PartitionDiscovery.enabled
konfigurasi kefalse
dalam klasifikasi.spark-defaults
-
versi komponen 6.2.0
Komponen yang EMR diinstal Amazon dengan rilis ini tercantum di bawah ini. Beberapa komponen diinstal sebagai bagian dari paket aplikasi big data. Lainnya unik untuk Amazon EMR dan diinstal untuk proses dan fitur sistem. Ini biasanya dimulai dengan emr
atau aws
. Paket aplikasi data besar dalam EMR rilis Amazon terbaru biasanya merupakan versi terbaru yang ditemukan di komunitas. Kami membuat rilis komunitas tersedia di Amazon EMR secepat mungkin.
Beberapa komponen di Amazon EMR berbeda dari versi komunitas. Komponen ini mempunyai label versi dalam bentuk
. CommunityVersion
-amzn-EmrVersion
dimulai dari 0. Misalnya, jika komponen komunitas open source bernama EmrVersion
myapp-component
dengan versi 2.2 telah dimodifikasi tiga kali untuk dimasukkan dalam EMR rilis Amazon yang berbeda, versi rilisnya terdaftar sebagai2.2-amzn-2
.
Komponen | Versi | Deskripsi |
---|---|---|
aws-sagemaker-spark-sdk | 1.4.1 | Amazon SageMaker Spark SDK |
emr-ddb | 4.16.0 | Konektor Amazon DynamoDB untuk aplikasi ekosistem Hadoop. |
emr-goodies | 3.1.0 | Perpustakaan kenyamanan ekstra untuk ekosistem Hadoop. |
emr-kinesis | 3.5.0 | Konektor Amazon Kinesis untuk aplikasi ekosistem Hadoop. |
emr-notebook-env | 1.0.0 | Conda env untuk emr notebook yang mencakup gateway jupyter korporasi |
emr-s3-dist-cp | 2.16.0 | Aplikasi salinan terdistribusi yang dioptimalkan untuk Amazon S3. |
emr-s3-select | 2.0.0 | EMRKonektor S3Select |
emrfs | 2.44.0 | Konektor Amazon S3 untuk aplikasi ekosistem Hadoop. |
flink-client | 1.11.2 | Skrip dan aplikasi klien baris perintah Apache Flink. |
flink-jobmanager-config | 1.11.2 | Mengelola sumber daya pada EMR node untuk Apache JobManager Flink. |
ganglia-monitor | 3.7.2 | Agen Ganglia tertanam untuk aplikasi ekosistem Hadoop bersama dengan agen pemantauan Ganglia. |
ganglia-metadata-collector | 3.7.2 | Kolektor metadata Ganglia untuk menggabungkan metrik dari agen pemantauan Ganglia. |
ganglia-web | 3.7.1 | Aplikasi web untuk melihat metrik yang dikumpulkan oleh kolektor metadata Ganglia. |
hadoop-client | 3.2.1-amzn-2 | Klien baris perintah Hadoop seperti 'hdfs', 'Hadoop', atau 'yarn'. |
hadoop-hdfs-datanode | 3.2.1-amzn-2 | HDFSlayanan tingkat simpul untuk menyimpan blok. |
hadoop-hdfs-library | 3.2.1-amzn-2 | HDFSklien baris perintah dan pustaka |
hadoop-hdfs-namenode | 3.2.1-amzn-2 | HDFSlayanan untuk melacak nama file dan lokasi blok. |
hadoop-hdfs-journalnode | 3.2.1-amzn-2 | HDFSlayanan untuk mengelola jurnal filesystem Hadoop pada klaster HA. |
hadoop-httpfs-server | 3.2.1-amzn-2 | HTTPtitik akhir untuk HDFS operasi. |
hadoop-kms-server | 3.2.1-amzn-2 | Server manajemen kunci kriptografi berdasarkan Hadoop. KeyProvider API |
hadoop-mapred | 3.2.1-amzn-2 | MapReduce pustaka mesin eksekusi untuk menjalankan MapReduce aplikasi. |
hadoop-yarn-nodemanager | 3.2.1-amzn-2 | YARNlayanan untuk mengelola kontainer pada node individu. |
hadoop-yarn-resourcemanager | 3.2.1-amzn-2 | YARNlayanan untuk mengalokasikan dan mengelola sumber daya cluster dan aplikasi terdistribusi. |
hadoop-yarn-timeline-server | 3.2.1-amzn-2 | Layanan untuk mengambil informasi terkini dan historis untuk YARN aplikasi. |
hbase-hmaster | 2.2.6-amzn-0 | Layanan untuk HBase cluster yang bertanggung jawab untuk koordinasi Daerah dan pelaksanaan perintah administratif. |
hbase-region-server | 2.2.6-amzn-0 | Layanan untuk melayani satu atau lebih HBase wilayah. |
hbase-client | 2.2.6-amzn-0 | HBaseklien baris perintah. |
hbase-rest-server | 2.2.6-amzn-0 | Layanan menyediakan RESTful HTTP titik akhir untukHBase. |
hbase-thrift-server | 2.2.6-amzn-0 | Layanan menyediakan titik akhir Thrift ke. HBase |
hcatalog-client | Versi 3.1.2 amzn-3 | Klien baris perintah 'hcat' untuk memanipulasi hcatalog-server. |
hcatalog-server | Versi 3.1.2 amzn-3 | Penyediaan layananHCatalog, tabel dan lapisan manajemen penyimpanan untuk aplikasi terdistribusi. |
hcatalog-webhcat-server | Versi 3.1.2 amzn-3 | HTTPendpoint menyediakan REST antarmuka keHCatalog. |
hive-client | Versi 3.1.2 amzn-3 | Klien baris perintah Hive. |
hive-hbase | Versi 3.1.2 amzn-3 | Klien Hive-hbase. |
hive-metastore-server | Versi 3.1.2 amzn-3 | Layanan untuk mengakses metastore Hive, repositori semantik menyimpan metadata untuk operasi Hadoop. SQL |
hive-server2 | Versi 3.1.2 amzn-3 | Layanan untuk menerima kueri Hive sebagai permintaan web. |
hudi | 0.6.0-amzn-1 | Kerangka kerja pemrosesan tambahan untuk menyalakan alur data pada latensi rendah dan efisiensi tinggi. |
hudi-presto | 0.6.0-amzn-1 | Perpustakaan paket untuk menjalankan Presto dengan Hudi. |
hudi-prestosql | 0.6.0-amzn-1 | Pustaka bundel untuk menjalankan Presto SQL dengan Hudi. |
hudi-spark | 0.6.0-amzn-1 | Perpustakaan paket untuk menjalankan Spark dengan Hudi. |
hue-server | 4.8.0 | Aplikasi web untuk menganalisis data menggunakan aplikasi ekosistem Hadoop |
jupyterhub | 1.1.0 | Server multi-pengguna untuk notebook Jupyter |
livy-server | 0.7.0-incubating | RESTantarmuka untuk berinteraksi dengan Apache Spark |
nginx | 1.12.1 | nginx [engine x] adalah server proxy HTTP terbalik |
mxnet | 1.7.0 | Perpustakaan yang fleksibel, dapat diskalakan, dan efisien untuk deep learning. |
mariadb-server | 5.5.64+ | Server basis data MariaDB. |
nvidia-cuda | 10.1.243 | Driver Nvidia dan kit alat Cuda |
oozie-client | 5.2.0 | Klien baris perintah Oozie. |
oozie-server | 5.2.0 | Layanan untuk menerima permintaan alur kerja Oozie. |
opencv | 4.4.0 | Perpustakaan Visi Komputer Sumber Terbuka. |
phoenix-library | 5.0.0- -2.0 HBase | Perpustakaan phoenix untuk server dan klien |
phoenix-query-server | 5.0.0- -2.0 HBase | Server ringan yang menyediakan JDBC akses serta Protocol Buffer dan akses JSON format ke Avatica API |
presto-coordinator | 0.238.3-amzn-1 | Layanan untuk menerima kueri dan mengelola eksekusi kueri antara presto-worker. |
presto-worker | 0.238.3-amzn-1 | Layanan untuk mengeksekusi potongan kueri. |
presto-client | 0.238.3-amzn-1 | Klien baris perintah Presto yang diinstal pada master klaster HA yang siaga di mana server Presto server tidak dimulai. |
prestosql-coordinator | 343 | Layanan untuk menerima kueri dan mengelola eksekusi kueri antara prestosql-woorker. |
prestosql-worker | 343 | Layanan untuk mengeksekusi potongan kueri. |
prestosql-client | 343 | Klien baris perintah Presto yang diinstal pada master klaster HA yang siaga di mana server Presto server tidak dimulai. |
pig-client | 0.17.0 | Klien baris perintah Pig. |
r | 3.4.3 | Proyek R untuk Komputasi Statistik |
ranger-kms-server | 2.0.0 | Sistem Pengelolaan Kunci Ranger Apache |
spark-client | 3.0.1-amzn-0 | Klien baris perintah Spark. |
spark-history-server | 3.0.1-amzn-0 | Web UI untuk melihat log acara untuk seluruh masa pakai aplikasi Spark. |
spark-on-yarn | 3.0.1-amzn-0 | Mesin eksekusi dalam memori untukYARN. |
spark-yarn-slave | 3.0.1-amzn-0 | Perpustakaan Apache Spark dibutuhkan oleh budak. YARN |
spark-rapids | 0.2.0 | RAPIDSPlugin Nvidia Spark yang mempercepat Apache Spark dengan. GPUs |
sqoop-client | 1.4.7 | Klien baris perintah Apache Sqoop. |
tensorflow | 2.3.1 | TensorFlow pustaka perangkat lunak open source untuk perhitungan numerik kinerja tinggi. |
tez-on-yarn | 0.9.2 | YARNAplikasi tez dan perpustakaan. |
webserver | 2.4.41+ | HTTPServer Apache. |
zeppelin-server | 0.9.0-preview1 | Notebook berbasis web yang memungkinkan analisis data interaktif. |
zookeeper-server | 3.4.14 | Layanan terpusat untuk menjaga informasi konfigurasi, penamaan, yang menyediakan sinkronisasi terdistribusi, dan menyediakan layanan grup. |
zookeeper-client | 3.4.14 | ZooKeeper klien baris perintah. |
klasifikasi konfigurasi 6.2.0
Klasifikasi konfigurasi memungkinkan Anda menyesuaikan aplikasi. Ini sering sesuai dengan XML file konfigurasi untuk aplikasi, sepertihive-site.xml
. Untuk informasi selengkapnya, lihat Konfigurasikan aplikasi.
Tindakan konfigurasi ulang terjadi ketika Anda menentukan konfigurasi untuk grup instans di klaster yang sedang berjalan. Amazon EMR hanya memulai tindakan konfigurasi ulang untuk klasifikasi yang Anda modifikasi. Untuk informasi selengkapnya, lihat Lakukan konfigurasi ulang pada grup instans di klaster yang sedang berjalan.
Klasifikasi | Deskripsi | Tindakan Konfigurasi Ulang |
---|---|---|
capacity-scheduler | Ubah nilai dalam file capacity-scheduler.xml Hadoop. | Restarts the ResourceManager service. |
container-executor | Ubah nilai dalam file container-executor.cfg YARN Hadoop. | Not available. |
container-log4j | Ubah nilai dalam file container-log4j.properties YARN Hadoop. | Not available. |
core-site | Ubah nilai dalam file core-site.xml Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Ranger KMS, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
docker-conf | Ubah pengaturan terkait docker. | Not available. |
emrfs-site | Ubah EMRFS pengaturan. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts HBaseRegionserver, HBaseMaster, HBaseThrift, HBaseRest, HiveServer2, Hive MetaStore, Hadoop Httpfs, and MapReduce-HistoryServer. |
flink-conf | Ubah pengaturan flink-conf.yaml. | Not available. |
flink-log4j | Ubah pengaturan log4j.properties Flink. | Not available. |
flink-log4j-yarn-session | Ubah pengaturan Flink log4 j-yarn-session .properties. | Not available. |
flink-log4j-cli | Ubah pengaturan log4j-cli.properties Flink. | Not available. |
hadoop-env | Ubah nilai dalam lingkungan Hadoop untuk semua komponen Hadoop. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts PhoenixQueryserver, HiveServer2, Hive MetaStore, and MapReduce-HistoryServer. |
hadoop-log4j | Ubah nilai dalam file log4j.properties Hadoop ini. | Restarts the Hadoop HDFS services SecondaryNamenode, Datanode, and Journalnode. Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Hadoop KMS, Hadoop Httpfs, and MapReduce-HistoryServer. |
hadoop-ssl-server | Ubah konfigurasi server ssl hadoop | Not available. |
hadoop-ssl-client | Ubah konfigurasi klien ssl hadoop | Not available. |
hbase | Pengaturan EMR yang dikurasi Amazon untuk Apache. HBase | Custom EMR specific property. Sets emrfs-site and hbase-site configs. See those for their associated restarts. |
hbase-env | Ubah nilai HBase di lingkungan. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-log4j | Ubah nilai dalam file HBase hbase-log4j.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-metrics | Ubah nilai dalam file HBase hadoop-metrics2-hbase.properties. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. |
hbase-policy | Ubah nilai dalam HBase file hbase-policy.xml. | Not available. |
hbase-site | Ubah nilai dalam HBase file hbase-site.xml. | Restarts the HBase services RegionServer, HBaseMaster, ThriftServer, RestServer. Additionally restarts Phoenix QueryServer. |
hdfs-encryption-zones | Konfigurasikan zona HDFS enkripsi. | This classification should not be reconfigured. |
hdfs-env | Ubah nilai di HDFS lingkungan. | Restarts Hadoop HDFS ZKFC. |
hdfs-site | Ubah nilai dalam HDFS hdfs-site.xml. | Restarts the Hadoop HDFS services Namenode, SecondaryNamenode, Datanode, ZKFC, and Journalnode. Additionally restarts Hadoop Httpfs. |
hcatalog-env | Ubah nilai HCatalog di lingkungan. | Restarts Hive HCatalog Server. |
hcatalog-server-jndi | Ubah nilai di HCatalog jndi.properties. | Restarts Hive HCatalog Server. |
hcatalog-server-proto-hive-site | Ubah nilai HCatalog proto-hive-site dalam.xml's. | Restarts Hive HCatalog Server. |
hcatalog-webhcat-env | Ubah nilai di lingkungan HCatalog WebHCat. | Restarts Hive WebHCat server. |
hcatalog-webhcat-log4j2 | Ubah nilai di ebHCat log4j2.properties HCatalog W. | Restarts Hive WebHCat server. |
hcatalog-webhcat-site | Ubah nilai dalam file webhcat-site.xml HCatalog WebHCat. | Restarts Hive WebHCat server. |
hive | Pengaturan EMR yang dikurasi Amazon untuk Apache Hive. | Sets configurations to launch Hive LLAP service. |
hive-beeline-log4j2 | Ubah nilai dalam file beeline-log4j2.properties Hive. | Not available. |
hive-parquet-logging | Ubah nilai dalam file parquet-logging.properties Hive. | Not available. |
hive-env | Ubah nilai dalam lingkungan Hive. | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. |
hive-exec-log4j2 | Ubah nilai dalam file hive-exec-log 4j2.properties Hive. | Not available. |
hive-llap-daemon-log4j2 | Ubah nilai dalam file llap-daemon-log 4j2.properties Hive. | Not available. |
hive-log4j2 | Ubah nilai dalam file hive-log4j2.properties Hive. | Not available. |
hive-site | Ubah nilai dalam file hive-site.xml Hive | Restarts HiveServer2, HiveMetastore, and Hive HCatalog-Server. Runs Hive schemaTool CLI commands to verify hive-metastore. Also restarts Oozie and Zeppelin. |
hiveserver2-site | Ubah nilai dalam file hiveserver2-site.xml Hive Server2 | Not available. |
hue-ini | Ubah nilai dalam file ini Hue | Restarts Hue. Also activates Hue config override CLI commands to pick up new configurations. |
httpfs-env | Ubah nilai di HTTPFS lingkungan. | Restarts Hadoop Httpfs service. |
httpfs-site | Ubah nilai dalam file httpfs-site.xml Hadoop. | Restarts Hadoop Httpfs service. |
hadoop-kms-acls | Ubah nilai dalam file kms-acls.xml Hadoop. | Not available. |
hadoop-kms-env | Ubah nilai di lingkungan HadoopKMS. | Restarts Hadoop-KMS service. |
hadoop-kms-log4j | Ubah nilai dalam file kms-log4j.properties Hadoop. | Not available. |
hadoop-kms-site | Ubah nilai dalam file kms-site.xml Hadoop. | Restarts Hadoop-KMS and Ranger-KMS service. |
hudi-env | Ubah nilai di lingkungan Hudi. | Not available. |
jupyter-notebook-conf | Ubah nilai dalam file jupyter_notebook_config.py Jupyter Notebook. | Not available. |
jupyter-hub-conf | Ubah nilai dalam JupyterHubs file jupyterhub_config.py. | Not available. |
jupyter-s3-conf | Konfigurasikan persistensi Jupyter Notebook S3. | Not available. |
jupyter-sparkmagic-conf | Ubah nilai dalam file config.json Sparkmagic. | Not available. |
livy-conf | Ubah nilai dalam file livy.conf Livy. | Restarts Livy Server. |
livy-env | Ubah nilai di lingkungan Livy. | Restarts Livy Server. |
livy-log4j | Ubah pengaturan Livy log4j.properties. | Restarts Livy Server. |
mapred-env | Ubah nilai di lingkungan MapReduce aplikasi. | Restarts Hadoop MapReduce-HistoryServer. |
mapred-site | Ubah nilai dalam file mapred-site.xml MapReduce aplikasi. | Restarts Hadoop MapReduce-HistoryServer. |
oozie-env | Ubah nilai di lingkungan Oozie. | Restarts Oozie. |
oozie-log4j | Ubah nilai dalam file oozie-log4j.properties Oozie. | Restarts Oozie. |
oozie-site | Ubah nilai dalam file oozie-site.xml Oozie. | Restarts Oozie. |
phoenix-hbase-metrics | Ubah nilai dalam file hadoop-metrics2-hbase.properties Phoenix. | Not available. |
phoenix-hbase-site | Ubah nilai dalam file hbase-site.xml Phoenix. | Not available. |
phoenix-log4j | Ubah nilai dalam file log4j.properties Phoenix. | Restarts Phoenix-QueryServer. |
phoenix-metrics | Ubah nilai dalam file hadoop-metrics2-phoenix.properties Phoenix. | Not available. |
pig-env | Ubah nilai di lingkungan Pig. | Not available. |
pig-properties | Ubah nilai dalam file pig.properties Pig. | Restarts Oozie. |
pig-log4j | Ubah nilai dalam file log4j.properties Pig. | Not available. |
presto-log | Ubah nilai dalam file log.properties Presto. | Restarts Presto-Server (for PrestoDB) |
presto-config | Ubah nilai dalam file config.properties Presto. | Restarts Presto-Server (for PrestoDB) |
presto-password-authenticator | Ubah nilai dalam file password-authenticator.properties Presto. | Not available. |
presto-env | Ubah nilai dalam file presto-env.sh Presto. | Restarts Presto-Server (for PrestoDB) |
presto-node | Ubah nilai dalam file node.properties Presto. | Not available. |
presto-connector-blackhole | Ubah nilai dalam file blackhole.properties Presto. | Not available. |
presto-connector-cassandra | Ubah nilai dalam file cassandra.properties Presto. | Not available. |
presto-connector-hive | Ubah nilai dalam file hive.properties Presto. | Restarts Presto-Server (for PrestoDB) |
presto-connector-jmx | Ubah nilai dalam file jmx.properties Presto. | Not available. |
presto-connector-kafka | Ubah nilai dalam file kafka.properties Presto. | Not available. |
presto-connector-localfile | Ubah nilai dalam file localfile.properties Presto. | Not available. |
presto-connector-memory | Ubah nilai dalam file memory.properties Presto. | Not available. |
presto-connector-mongodb | Ubah nilai dalam file mongodb.properties Presto. | Not available. |
presto-connector-mysql | Ubah nilai dalam file mysql.properties Presto. | Not available. |
presto-connector-postgresql | Ubah nilai dalam file postgresql.properties Presto. | Not available. |
presto-connector-raptor | Ubah nilai dalam file raptor.properties Presto. | Not available. |
presto-connector-redis | Ubah nilai dalam file redis.properties Presto. | Not available. |
presto-connector-redshift | Ubah nilai dalam file redshift.properties Presto. | Not available. |
presto-connector-tpch | Ubah nilai dalam file tpch.properties Presto. | Not available. |
presto-connector-tpcds | Ubah nilai dalam file tpcds.properties Presto. | Not available. |
prestosql-log | Ubah nilai dalam file log.properties Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-config | Ubah nilai dalam file config.properties Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-password-authenticator | Ubah nilai dalam file password-authenticator.properties Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-env | Ubah nilai dalam file presto-env.sh Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-node | Ubah nilai dalam file SQL node.properties Presto. | Not available. |
prestosql-connector-blackhole | Ubah nilai dalam file SQL blackhole.properties Presto. | Not available. |
prestosql-connector-cassandra | Ubah nilai dalam file SQL cassandra.properties Presto. | Not available. |
prestosql-connector-hive | Ubah nilai dalam file SQL hive.properties Presto. | Restarts Presto-Server (for PrestoSQL) |
prestosql-connector-jmx | Ubah nilai dalam file SQL jmx.properties Presto. | Not available. |
prestosql-connector-kafka | Ubah nilai dalam file SQL kafka.properties Presto. | Not available. |
prestosql-connector-localfile | Ubah nilai dalam file SQL localfile.properties Presto. | Not available. |
prestosql-connector-memory | Ubah nilai dalam file memory.properties SQL Presto. | Not available. |
prestosql-connector-mongodb | Ubah nilai dalam file SQL mongodb.properties Presto. | Not available. |
prestosql-connector-mysql | Ubah nilai dalam file SQL mysql.properties Presto. | Not available. |
prestosql-connector-postgresql | Ubah nilai dalam file SQL postgresql.properties Presto. | Not available. |
prestosql-connector-raptor | Ubah nilai dalam file SQL raptor.properties Presto. | Not available. |
prestosql-connector-redis | Ubah nilai dalam file SQL redis.properties Presto. | Not available. |
prestosql-connector-redshift | Ubah nilai dalam file SQL redshift.properties Presto. | Not available. |
prestosql-connector-tpch | Ubah nilai dalam file SQL tpch.properties Presto. | Not available. |
prestosql-connector-tpcds | Ubah nilai dalam file SQL tpcds.properties Presto. | Not available. |
ranger-kms-dbks-site | Ubah nilai dalam file dbks-site.xml dari Ranger. KMS | Restarts Ranger KMS Server. |
ranger-kms-site | Ubah nilai dalam ranger-kms-site file.xml.Ranger. KMS | Restarts Ranger KMS Server. |
ranger-kms-env | Ubah nilai di KMS lingkungan Ranger. | Restarts Ranger KMS Server. |
ranger-kms-log4j | Ubah nilai dalam file kms-log4j.properties dari Ranger. KMS | Not available. |
ranger-kms-db-ca | Ubah nilai untuk file CA di S3 untuk SQL SSL koneksi Saya dengan RangerKMS. | Not available. |
spark | Pengaturan EMR yang dikurasi Amazon untuk Apache Spark. | This property modifies spark-defaults. See actions there. |
spark-defaults | Ubah nilai dalam file spark-defaults.conf Spark. | Restarts Spark history server and Spark thrift server. |
spark-env | Ubah nilai di lingkungan Spark. | Restarts Spark history server and Spark thrift server. |
spark-hive-site | Ubah nilai dalam file hive-site.xml Spark | Not available. |
spark-log4j | Ubah nilai dalam file log4j.properties Spark. | Restarts Spark history server and Spark thrift server. |
spark-metrics | Ubah nilai dalam file metrics.properties Spark. | Restarts Spark history server and Spark thrift server. |
sqoop-env | Ubah nilai dalam lingkungan Sqoop. | Not available. |
sqoop-oraoop-site | Ubah nilai dalam file oraoop-site.xml Sqoop OraOop ini. | Not available. |
sqoop-site | Ubah nilai dalam file sqoop-site.xml Sqoop. | Not available. |
tez-site | Ubah nilai dalam file tez-site.xml Tez. | Restart Oozie. |
yarn-env | Ubah nilai di YARN lingkungan. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts MapReduce-HistoryServer. |
yarn-site | Ubah nilai dalam YARN file yarn-site.xml. | Restarts the Hadoop YARN services ResourceManager, NodeManager, ProxyServer, and TimelineServer. Additionally restarts Livy Server and MapReduce-HistoryServer. |
zeppelin-env | Ubah nilai di lingkungan Zeppelin. | Restarts Zeppelin. |
zookeeper-config | Ubah nilai dalam ZooKeeper file zoo.cfg. | Restarts Zookeeper server. |
zookeeper-log4j | Ubah nilai dalam file ZooKeeper log4j.properties. | Restarts Zookeeper server. |