Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Amazon EMR merilis 6.1.0
versi aplikasi 6.1.0
Aplikasi berikut didukung dalam rilis ini: Flink
Tabel di bawah ini mencantumkan versi aplikasi yang tersedia dalam rilis Amazon ini EMR dan versi aplikasi di tiga EMR rilis Amazon sebelumnya (bila berlaku).
Untuk riwayat lengkap versi aplikasi untuk setiap rilis AmazonEMR, lihat topik berikut:
emr-6.1.1 | emr-6.1.0 | emr-6.0.1 | emr-6.0.0 | |
---|---|---|---|---|
AWS SDK untuk Java | 1.11.828 | 1.11.828 | 1.11.711 | 1.11.711 |
Python | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 | 2.7, 3.7 |
Skala | 2.12.10 | 2.12.10 | 2.12.10 | 2.11.12 |
AmazonCloudWatchAgent | - | - | - | - |
kuala | - | - | - | - |
Flink | 1.11.0 | 1.11.0 | - | - |
Ganglia | 3.7.2 | 3.7.2 | 3.7.2 | 3.7.2 |
HBase | 2.2.5 | 2.2.5 | 2.2.3 | 2.2.3 |
HCatalog | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hadoop | 3.2.1 | 3.2.1 | 3.2.1 | 3.2.1 |
Hive | 3.1.2 | 3.1.2 | 3.1.2 | 3.1.2 |
Hudi | 0.5.2-incubating-amzn-2 | 0.5.2-incubating-amzn-2 | 0.5.0-incubating-amzn-1 | 0.5.0-incubating-amzn-1 |
Hue | 4.7.1 | 4.7.1 | 4.4.0 | 4.4.0 |
Gunung es | - | - | - | - |
JupyterEnterpriseGateway | - | - | - | - |
JupyterHub | 1.1.0 | 1.1.0 | 1.0.0 | 1.0.0 |
Livy | 0.7.0 | 0.7.0 | 0.6.0 | 0.6.0 |
MXNet | 1.6.0 | 1.6.0 | 1.5.1 | 1.5.1 |
Mahout | - | - | - | - |
Oozie | 5.2.0 | 5.2.0 | 5.1.0 | 5.1.0 |
Phoenix | 5.0.0 | 5.0.0 | 5.0.0 | 5.0.0 |
Pig | 0.17.0 | 0.17.0 | - | - |
Presto | 0,232 | 0,232 | 0,230 | 0,230 |
Spark | 3.0.0 | 3.0.0 | 2.4.4 | 2.4.4 |
Sqoop | 1.4.7 | 1.4.7 | - | - |
TensorFlow | 2.1.0 | 2.1.0 | 1.14.0 | 1.14.0 |
Tez | 0.9.2 | 0.9.2 | 0.9.2 | 0.9.2 |
Trino (PrestoSQL) | 338 | 338 | - | - |
Zeppelin | 0.9.0 | 0.9.0 | 0.9.0 | 0.9.0 |
ZooKeeper | 3.4.14 | 3.4.14 | 3.4.14 | 3.4.14 |
catatan rilis 6.1.0
Catatan rilis berikut mencakup informasi untuk EMR rilis Amazon 6.1.0. Perubahan bersifat relatif terhadap versi 6.0.0.
Tanggal rilis awal: 04 September 2020
Tanggal terakhir diperbarui: 15 Oktober 2020
Aplikasi-aplikasi yang didukung
AWS SDK for Java versi 1.11.828
Flink versi 1.11.0
Ganglia versi 3.7.2
Hadoop versi 3.2.1-amzn-1
HBase versi 2.2.5
HBase-operator-tools 1.0.0
HCatalogversi 3.1.2-amzn-0
Hive versi 3.1.2-amzn-1
Hudi versi 0.5.2-incubating
Hue versi 4.7.1
JupyterHub versi 1.1.0
Livy versi 0.7.0
MXNetversi 1.6.0
Oozie versi 5.2.0
Phoenix versi 5.0.0
Presto versi 0.232
Presto SQL versi 338
Spark versi 3.0.0-amzn-0
TensorFlow versi 2.1.0
Zeppelin versi 0.9.0-preview1
Zookeeper versi 3.4.14
Konektor dan driver: DynamoDB Connector 4.14.0
Fitur baru
ARMJenis instans didukung mulai dari Amazon EMR versi 5.30.0 dan Amazon EMR versi 6.1.0.
Jenis instans tujuan umum M6g didukung mulai dari Amazon EMR versi 6.1.0 dan 5.30.0. Untuk informasi selengkapnya, lihat Jenis Instans yang Didukung di Panduan EMR Manajemen Amazon.
Fitur grup EC2 penempatan didukung dimulai dengan Amazon EMR versi 5.23.0 sebagai opsi untuk beberapa cluster node utama. Saat ini, hanya tipe node primer yang didukung oleh fitur grup penempatan, dan
SPREAD
strategi diterapkan pada node utama tersebut.SPREAD
Strategi ini menempatkan sekelompok kecil instance di perangkat keras dasar yang terpisah untuk mencegah hilangnya beberapa node primer jika terjadi kegagalan perangkat keras. Untuk informasi selengkapnya, lihat EMRIntegrasi dengan Grup EC2 Penempatan di Panduan EMR Manajemen Amazon.Penskalaan Terkelola — Dengan Amazon EMR versi 6.1.0, Anda dapat mengaktifkan penskalaan EMR terkelola Amazon untuk secara otomatis menambah atau mengurangi jumlah instans atau unit di klaster berdasarkan beban kerja. Amazon EMR terus mengevaluasi metrik klaster untuk membuat keputusan penskalaan yang mengoptimalkan kluster Anda untuk biaya dan kecepatan. Penskalaan Terkelola juga tersedia di Amazon EMR versi 5.30.0 dan yang lebih baru, kecuali 6.0.0. Untuk informasi selengkapnya, lihat Penskalaan Sumber Daya Cluster di Panduan EMR Manajemen Amazon.
Presto SQL versi 338 didukung dengan EMR 6.1.0. Untuk informasi selengkapnya, lihat Presto.
Presto SQL didukung pada versi EMR 6.1.0 dan yang lebih baru saja, bukan pada EMR 6.0.0 atau 5.x. EMR
Nama aplikasi,
Presto
terus-menerus digunakan untuk menginstal PrestoDB pada klaster. Untuk menginstal Presto SQL pada cluster, gunakan nama aplikasi.PrestoSQL
Anda dapat menginstal baik PrestoDB atau SQL Presto, tetapi Anda tidak dapat menginstal keduanya pada satu cluster. Jika PrestODB dan SQL Presto ditentukan saat mencoba membuat cluster, kesalahan validasi terjadi dan permintaan pembuatan cluster gagal.
Presto SQL didukung pada cluster single-master dan muti-master. Pada cluster multi-master, metastore Hive eksternal diperlukan untuk menjalankan Presto atau PrestoDB. SQL Lihat Aplikasi yang didukung dalam EMR klaster dengan beberapa node primer.
ECRdukungan autentikasi auto pada Apache Hadoop dan Apache Spark dengan Docker: Pengguna Spark dapat menggunakan gambar Docker dari Docker Hub dan Amazon Elastic Container Registry (Amazon) untuk menentukan dependensi lingkungan dan perpustakaan. ECR
Konfigurasikan Docker dan Jalankan Aplikasi Spark dengan Docker Menggunakan Amazon 6.x. EMR
EMRmendukung ACID transaksi Apache Hive: Amazon EMR 6.1.0 menambahkan dukungan untuk ACID transaksi Hive sehingga sesuai dengan properti database. ACID Dengan fitur ini, Anda dapat menjalankan
INSERT, UPDATE, DELETE,
danMERGE
mengoperasikannya di tabel terkelola Hive dengan data di Amazon Simple Storage Service (Amazon S3). Ini adalah fitur utama untuk kasus penggunaan seperti konsumsi streaming, penyajian ulang data, pembaruan massal menggunakanMERGE, dan dimensi yang berubah secara perlahan. Untuk informasi selengkapnya, termasuk contoh konfigurasi dan kasus penggunaan, lihat Amazon EMR mendukung transaksi Apache Hive ACID.
Perubahan, penyempurnaan, dan masalah yang diselesaikan
-
Ini adalah rilis untuk memperbaiki masalah dengan Amazon EMR Scaling ketika gagal meningkatkan/menurunkan klaster dengan sukses atau menyebabkan kegagalan aplikasi.
Memperbaiki masalah saat permintaan penskalaan gagal untuk klaster besar yang sangat dimanfaatkan saat daemon EMR on-cluster Amazon menjalankan aktivitas pemeriksaan kesehatan, seperti mengumpulkan status node dan status YARN node. HDFS Ini terjadi karena daemon on-cluster tidak dapat mengkomunikasikan data status kesehatan node ke komponen Amazon internal. EMR
Peningkatan daemon EMR on-cluster untuk melacak status node dengan benar saat alamat IP digunakan kembali untuk meningkatkan keandalan selama operasi penskalaan.
SPARK-29683
. Memperbaiki masalah di mana kegagalan pekerjaan terjadi selama penskalaan klaster karena Spark mengasumsikan semua node yang tersedia tidak terdaftar. YARN-9011
. Memperbaiki masalah di mana kegagalan pekerjaan terjadi karena kondisi balapan dalam YARN penonaktifan saat klaster mencoba menaikkan atau menurunkan skala. Memperbaiki masalah dengan kegagalan langkah atau pekerjaan selama penskalaan klaster dengan memastikan bahwa status node selalu konsisten antara EMR daemon on-cluster Amazon dan/. YARN HDFS
Memperbaiki masalah saat operasi klaster seperti pengurangan skala dan pengiriman langkah gagal untuk EMR kluster Amazon yang diaktifkan dengan autentikasi Kerberos. Ini karena EMR daemon on-cluster Amazon tidak memperbarui tiket Kerberos, yang diperlukan untuk berkomunikasi dengan HDFS aman dengan/berjalan di node utama. YARN
EMRRilis Amazon yang lebih baru memperbaiki masalah dengan batas “Max open files” yang lebih rendah pada yang lebih lama AL2 di AmazonEMR. Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan yang lebih baru sekarang menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi.
Apache Flink tidak didukung pada EMR 6.0.0, tetapi didukung pada 6.1.0 dengan Flink EMR 1.11.0. Ini adalah versi pertama Flink yang secara resmi mendukung Hadoop 3. Lihat Pengumuman Rilis Apache Flink 1.11.0
. Ganglia telah dihapus dari bundel paket EMR 6.1.0 default.
Masalah yang diketahui
-
Turunkan batas “Maks open files” pada yang lebih lama AL2 [diperbaiki dalam rilis yang lebih baru]. EMRRilis Amazon: emr-5.30.x, emr-5.31.0, emr-5.32.0, emr-6.0.0, emr-6.1.0, dan emr-6.2.0 didasarkan pada versi lama Linux ofAmazon 2 ()AL2, yang memiliki pengaturan ulimit yang lebih rendah untuk “File terbuka maksimum” ketika cluster Amazon dibuat dengan default. EMR AMI Amazon EMR merilis 5.30.1, 5.30.2, 5.31.1, 5.32.1, 6.0.1, 6.1.1, 6.2.1, 5.33.0, 6.3.0 dan kemudian menyertakan perbaikan permanen dengan pengaturan “Max open files” yang lebih tinggi. Rilis dengan batas file terbuka yang lebih rendah menyebabkan kesalahan “Terlalu banyak file terbuka” saat mengirimkan pekerjaan Spark. Dalam rilis yang terkena dampak, EMR default Amazon AMI memiliki pengaturan ulimit default 4096 untuk “File terbuka maksimum,” yang lebih rendah dari batas file 65536 di Linux 2. latestAmazon AMI Pengaturan ulimit yang lebih rendah untuk "Maksimal file terbuka" menyebabkan kegagalan tugas Spark ketika driver dan pelaksana mencoba untuk membuka lebih dari 4096 file. Untuk memperbaiki masalah ini, Amazon EMR memiliki skrip bootstrap action (BA) yang menyesuaikan pengaturan ulimit pada pembuatan cluster.
Jika Anda menggunakan EMR versi Amazon lama yang tidak memiliki perbaikan permanen untuk masalah ini, solusi berikut memungkinkan Anda untuk secara eksplisit menyetel ulimit pengontrol instans ke maksimum 65536 file.
Mengatur secara eksplisit ulimit dari baris perintah
Edit
/etc/systemd/system/instance-controller.service
untuk menambahkan parameter berikut ke bagian Layanan.LimitNOFILE=65536
LimitNPROC=65536
Mulai ulang InstanceController
$ sudo systemctl daemon-reload
$ sudo systemctl restart instance-controller
Tetapkan ulimit menggunakan tindakan bootstrap (BA)
Anda juga dapat menggunakan skrip tindakan bootstrap (BA) untuk mengkonfigurasi ulimit instans-pengendali menjadi 65536 file saat pembuatan klaster.
#!/bin/bash for user in hadoop spark hive; do sudo tee /etc/security/limits.d/$user.conf << EOF $user - nofile 65536 $user - nproc 65536 EOF done for proc in instancecontroller logpusher; do sudo mkdir -p /etc/systemd/system/$proc.service.d/ sudo tee /etc/systemd/system/$proc.service.d/override.conf << EOF [Service] LimitNOFILE=65536 LimitNPROC=65536 EOF pid=$(pgrep -f aws157.$proc.Main) sudo prlimit --pid $pid --nofile=65535:65535 --nproc=65535:65535 done sudo systemctl daemon-reload
penting
Amazon EMR 6.1.0 dan 6.2.0 menyertakan masalah kinerja yang secara kritis dapat memengaruhi semua operasi penyisipan, peningkatan, dan penghapusan Hudi. Jika Anda berencana untuk menggunakan Hudi dengan Amazon EMR 6.1.0 atau 6.2.0, Anda harus menghubungi AWS dukungan untuk mendapatkan Hudi yang ditambal. RPM
Jika Anda mengatur konfigurasi pengumpulan sampah khusus dengan
spark.driver.extraJavaOptions
danspark.executor.extraJavaOptions
, ini akan mengakibatkan kegagalan peluncuran driver/pelaksana dengan EMR 6.1 karena konfigurasi pengumpulan sampah yang bertentangan. Dengan EMR Release 6.1.0, Anda harus menentukan konfigurasi pengumpulan sampah Spark khusus untuk driver dan pelaksana dengan properti dan sebagai gantinya.spark.driver.defaultJavaOptions
spark.executor.defaultJavaOptions
Baca selengkapnya di Apache Spark Runtime Environmentdan Mengkonfigurasi Spark Garbage Collection di Amazon 6.1.0. EMR -
Menggunakan Pig dengan Oozie (dan dalam Hue, karena Hue menggunakan tindakan Oozie untuk menjalankan skrip Pig), akan menghasilkan kesalahan di mana perpustakaan native-lzo tidak dapat dimuat. Pesan kesalahan ini adalah informasi dan tidak memblokir Pig sehingga tidak berjalan.
Hudi Concurrency Support: Saat ini Hudi tidak mendukung tulis bersamaan ke tabel Hudi tunggal. Selain itu, Hudi membatalkan setiap perubahan yang dilakukan oleh penulis yang sedang berlangsung sebelum mengizinkan penulis baru untuk memulai. Tulis bersamaan dapat mengganggu mekanisme ini dan memperkenalkan kondisi ras, yang dapat menyebabkan korupsi data. Anda harus memastikan bahwa sebagai bagian dari alur kerja pengolahan data Anda, hanya ada satu penulis Hudi yang beroperasi terhadap tabel Hudi setiap saat. Hudi tidak mendukung beberapa pembaca bersamaan yang beroperasi terhadap tabel Hudi yang sama.
-
Masalah yang diketahui dalam cluster dengan beberapa node primer dan otentikasi Kerberos
Jika Anda menjalankan cluster dengan beberapa node utama dan otentikasi Kerberos di EMR Amazon rilis 5.20.0 dan yang lebih baru, Anda mungkin mengalami masalah dengan operasi klaster seperti penurunan skala atau pengiriman langkah, setelah klaster berjalan selama beberapa waktu. Periode waktunya tergantung pada masa validitas tiket Kerberos yang Anda tetapkan. Masalah menurunkan skala akan berdampak pada permintaan menurunkan skala otomatis dan permintaan menurunkan skala eksplisit yang Anda kirimkan. Operasi klaster tambahan juga dapat terkena dampak.
Pemecahan masalah:
-
SSHsebagai
hadoop
pengguna ke simpul utama utama EMR cluster dengan beberapa node primer. -
Jalankan perintah berikut untuk memperbarui tiket Kerberos untuk pengguna
hadoop
.kinit -kt <keytab_file> <principal>
Biasanya, fail keytab terletak di
/etc/hadoop.keytab
dan file utama-nya dalam bentukhadoop/<hostname>@<REALM>
.
catatan
Pemecahan masalah ini akan efektif untuk jangka waktu selama tiket Kerberos berlaku. Durasi ini adalah 10 jam secara default, tetapi dapat dikonfigurasi dengan pengaturan Kerberos Anda. Anda harus menjalankan kembali perintah di atas setelah tiket Kerberos berakhir.
-
Ada masalah di Amazon EMR 6.1.0 yang memengaruhi cluster yang menjalankan Presto. Setelah periode waktu yang lama (hari), klaster dapat memunculkan kesalahan seperti, “su: gagalexecute /bin/bash: Sumber daya sementara tidak tersedia” atau “permintaan shell gagal di saluran 0". Masalah ini disebabkan oleh EMR proses Amazon internal (InstanceController) yang menghasilkan terlalu banyak Proses Berat Ringan (LWP), yang akhirnya menyebabkan pengguna Hadoop melebihi batas nproc mereka. Hal ini mencegah pengguna dari membuka proses tambahan. Solusi untuk masalah ini adalah meningkatkan ke EMR 6.2.0.
versi komponen 6.1.0
Komponen yang EMR diinstal Amazon dengan rilis ini tercantum di bawah ini. Beberapa komponen diinstal sebagai bagian dari paket aplikasi big data. Lainnya unik untuk Amazon EMR dan diinstal untuk proses dan fitur sistem. Ini biasanya dimulai dengan emr
atau aws
. Paket aplikasi data besar dalam EMR rilis Amazon terbaru biasanya merupakan versi terbaru yang ditemukan di komunitas. Kami membuat rilis komunitas tersedia di Amazon EMR secepat mungkin.
Beberapa komponen di Amazon EMR berbeda dari versi komunitas. Komponen ini mempunyai label versi dalam bentuk
. CommunityVersion
-amzn-EmrVersion
dimulai dari 0. Misalnya, jika komponen komunitas open source bernama EmrVersion
myapp-component
dengan versi 2.2 telah dimodifikasi tiga kali untuk dimasukkan dalam EMR rilis Amazon yang berbeda, versi rilisnya terdaftar sebagai2.2-amzn-2
.
Komponen | Versi | Deskripsi |
---|---|---|
aws-sagemaker-spark-sdk | 1.3.0 | Amazon SageMaker Spark SDK |
emr-ddb | 4.14.0 | Konektor Amazon DynamoDB untuk aplikasi ekosistem Hadoop. |
emr-goodies | 3.1.0 | Perpustakaan kenyamanan ekstra untuk ekosistem Hadoop. |
emr-kinesis | 3.5.0 | Konektor Amazon Kinesis untuk aplikasi ekosistem Hadoop. |
emr-s3-dist-cp | 2.14.0 | Aplikasi salinan terdistribusi yang dioptimalkan untuk Amazon S3. |
emr-s3-select | 2.0.0 | EMRKonektor S3Select |
emrfs | 2.42.0 | Konektor Amazon S3 untuk aplikasi ekosistem Hadoop. |
flink-client | 1.11.0 | Skrip dan aplikasi klien baris perintah Apache Flink. |
ganglia-monitor | 3.7.2 | Agen Ganglia tertanam untuk aplikasi ekosistem Hadoop bersama dengan agen pemantauan Ganglia. |
ganglia-metadata-collector | 3.7.2 | Kolektor metadata Ganglia untuk menggabungkan metrik dari agen pemantauan Ganglia. |
ganglia-web | 3.7.1 | Aplikasi web untuk melihat metrik yang dikumpulkan oleh kolektor metadata Ganglia. |
hadoop-client | Versi 3.2.1-amzn-1 | Klien baris perintah Hadoop seperti 'hdfs', 'Hadoop', atau 'yarn'. |
hadoop-hdfs-datanode | Versi 3.2.1-amzn-1 | HDFSlayanan tingkat simpul untuk menyimpan blok. |
hadoop-hdfs-library | Versi 3.2.1-amzn-1 | HDFSklien baris perintah dan pustaka |
hadoop-hdfs-namenode | Versi 3.2.1-amzn-1 | HDFSlayanan untuk melacak nama file dan lokasi blok. |
hadoop-hdfs-journalnode | Versi 3.2.1-amzn-1 | HDFSlayanan untuk mengelola jurnal filesystem Hadoop pada klaster HA. |
hadoop-httpfs-server | Versi 3.2.1-amzn-1 | HTTPtitik akhir untuk HDFS operasi. |
hadoop-kms-server | Versi 3.2.1-amzn-1 | Server manajemen kunci kriptografi berdasarkan Hadoop. KeyProvider API |
hadoop-mapred | Versi 3.2.1-amzn-1 | MapReduce pustaka mesin eksekusi untuk menjalankan MapReduce aplikasi. |
hadoop-yarn-nodemanager | Versi 3.2.1-amzn-1 | YARNlayanan untuk mengelola kontainer pada node individu. |
hadoop-yarn-resourcemanager | Versi 3.2.1-amzn-1 | YARNlayanan untuk mengalokasikan dan mengelola sumber daya cluster dan aplikasi terdistribusi. |
hadoop-yarn-timeline-server | Versi 3.2.1-amzn-1 | Layanan untuk mengambil informasi terkini dan historis untuk YARN aplikasi. |
hbase-hmaster | 2.2.5 | Layanan untuk HBase cluster yang bertanggung jawab untuk koordinasi Daerah dan pelaksanaan perintah administratif. |
hbase-region-server | 2.2.5 | Layanan untuk melayani satu atau lebih HBase wilayah. |
hbase-client | 2.2.5 | HBaseklien baris perintah. |
hbase-rest-server | 2.2.5 | Layanan menyediakan RESTful HTTP titik akhir untukHBase. |
hbase-thrift-server | 2.2.5 | Layanan menyediakan titik akhir Thrift ke. HBase |
hcatalog-client | Versi 3.1.2-amzn-2 | Klien baris perintah 'hcat' untuk memanipulasi hcatalog-server. |
hcatalog-server | Versi 3.1.2-amzn-2 | Penyediaan layananHCatalog, tabel dan lapisan manajemen penyimpanan untuk aplikasi terdistribusi. |
hcatalog-webhcat-server | Versi 3.1.2-amzn-2 | HTTPendpoint menyediakan REST antarmuka keHCatalog. |
hive-client | Versi 3.1.2-amzn-2 | Klien baris perintah Hive. |
hive-hbase | Versi 3.1.2-amzn-2 | Klien Hive-hbase. |
hive-metastore-server | Versi 3.1.2-amzn-2 | Layanan untuk mengakses metastore Hive, repositori semantik menyimpan metadata untuk operasi Hadoop. SQL |
hive-server2 | Versi 3.1.2-amzn-2 | Layanan untuk menerima kueri Hive sebagai permintaan web. |
hudi | 0.5.2-incubating-amzn-2 | Kerangka kerja pemrosesan tambahan untuk menyalakan alur data pada latensi rendah dan efisiensi tinggi. |
hudi-presto | 0.5.2-incubating-amzn-2 | Perpustakaan paket untuk menjalankan Presto dengan Hudi. |
hudi-prestosql | 0.5.2-incubating-amzn-2 | Pustaka bundel untuk menjalankan Presto SQL dengan Hudi. |
hudi-spark | 0.5.2-incubating-amzn-2 | Perpustakaan paket untuk menjalankan Spark dengan Hudi. |
hue-server | 4.7.1 | Aplikasi web untuk menganalisis data menggunakan aplikasi ekosistem Hadoop |
jupyterhub | 1.1.0 | Server multi-pengguna untuk notebook Jupyter |
livy-server | 0.7.0-incubating | RESTantarmuka untuk berinteraksi dengan Apache Spark |
nginx | 1.12.1 | nginx [engine x] adalah server proxy HTTP terbalik |
mxnet | 1.6.0 | Perpustakaan yang fleksibel, dapat diskalakan, dan efisien untuk deep learning. |
mariadb-server | 5.5.64+ | Server basis data MariaDB. |
nvidia-cuda | 9.2.88 | Driver Nvidia dan kit alat Cuda |
oozie-client | 5.2.0 | Klien baris perintah Oozie. |
oozie-server | 5.2.0 | Layanan untuk menerima permintaan alur kerja Oozie. |
opencv | 4.3.0 | Perpustakaan Visi Komputer Sumber Terbuka. |
phoenix-library | 5.0.0- -2.0 HBase | Perpustakaan phoenix untuk server dan klien |
phoenix-query-server | 5.0.0- -2.0 HBase | Server ringan yang menyediakan JDBC akses serta Protocol Buffer dan akses JSON format ke Avatica API |
presto-coordinator | 0,232 | Layanan untuk menerima kueri dan mengelola eksekusi kueri antara presto-worker. |
presto-worker | 0,232 | Layanan untuk mengeksekusi potongan kueri. |
presto-client | 0,232 | Klien baris perintah Presto yang diinstal pada master klaster HA yang siaga di mana server Presto server tidak dimulai. |
prestosql-coordinator | 338 | Layanan untuk menerima kueri dan mengelola eksekusi kueri antara prestosql-woorker. |
prestosql-worker | 338 | Layanan untuk mengeksekusi potongan kueri. |
prestosql-client | 338 | Klien baris perintah Presto yang diinstal pada master klaster HA yang siaga di mana server Presto server tidak dimulai. |
pig-client | 0.17.0 | Klien baris perintah Pig. |
r | 3.4.3 | Proyek R untuk Komputasi Statistik |
ranger-kms-server | 2.0.0 | Sistem Pengelolaan Kunci Ranger Apache |
spark-client | 3.0.0-amzn-0 | Klien baris perintah Spark. |
spark-history-server | 3.0.0-amzn-0 | Web UI untuk melihat log acara untuk seluruh masa pakai aplikasi Spark. |
spark-on-yarn | 3.0.0-amzn-0 | Mesin eksekusi dalam memori untukYARN. |
spark-yarn-slave | 3.0.0-amzn-0 | Perpustakaan Apache Spark dibutuhkan oleh budak. YARN |
sqoop-client | 1.4.7 | Klien baris perintah Apache Sqoop. |
tensorflow | 2.1.0 | TensorFlow pustaka perangkat lunak open source untuk perhitungan numerik kinerja tinggi. |
tez-on-yarn | 0.9.2 | YARNAplikasi tez dan perpustakaan. |
webserver | 2.4.41+ | HTTPServer Apache. |
zeppelin-server | 0.9.0-preview1 | Notebook berbasis web yang memungkinkan analisis data interaktif. |
zookeeper-server | 3.4.14 | Layanan terpusat untuk menjaga informasi konfigurasi, penamaan, yang menyediakan sinkronisasi terdistribusi, dan menyediakan layanan grup. |
zookeeper-client | 3.4.14 | ZooKeeper klien baris perintah. |
klasifikasi konfigurasi 6.1.0
Klasifikasi konfigurasi memungkinkan Anda menyesuaikan aplikasi. Ini sering sesuai dengan XML file konfigurasi untuk aplikasi, sepertihive-site.xml
. Untuk informasi selengkapnya, lihat Konfigurasikan aplikasi.
Klasifikasi | Deskripsi |
---|---|
capacity-scheduler | Ubah nilai dalam file capacity-scheduler.xml Hadoop. |
container-executor | Ubah nilai dalam file container-executor.cfg YARN Hadoop. |
container-log4j | Ubah nilai dalam file container-log4j.properties YARN Hadoop. |
core-site | Ubah nilai dalam file core-site.xml Hadoop. |
emrfs-site | Ubah EMRFS pengaturan. |
flink-conf | Ubah pengaturan flink-conf.yaml. |
flink-log4j | Ubah pengaturan log4j.properties Flink. |
flink-log4j-yarn-session | Ubah pengaturan Flink log4 j-yarn-session .properties. |
flink-log4j-cli | Ubah pengaturan log4j-cli.properties Flink. |
hadoop-env | Ubah nilai dalam lingkungan Hadoop untuk semua komponen Hadoop. |
hadoop-log4j | Ubah nilai dalam file log4j.properties Hadoop ini. |
hadoop-ssl-server | Ubah konfigurasi server ssl hadoop |
hadoop-ssl-client | Ubah konfigurasi klien ssl hadoop |
hbase | Pengaturan EMR yang dikurasi Amazon untuk Apache. HBase |
hbase-env | Ubah nilai HBase di lingkungan. |
hbase-log4j | Ubah nilai dalam file HBase hbase-log4j.properties. |
hbase-metrics | Ubah nilai dalam file HBase hadoop-metrics2-hbase.properties. |
hbase-policy | Ubah nilai dalam HBase file hbase-policy.xml. |
hbase-site | Ubah nilai dalam HBase file hbase-site.xml. |
hdfs-encryption-zones | Konfigurasikan zona HDFS enkripsi. |
hdfs-env | Ubah nilai di HDFS lingkungan. |
hdfs-site | Ubah nilai dalam HDFS hdfs-site.xml. |
hcatalog-env | Ubah nilai HCatalog di lingkungan. |
hcatalog-server-jndi | Ubah nilai di HCatalog jndi.properties. |
hcatalog-server-proto-hive-site | Ubah nilai HCatalog proto-hive-site dalam.xml's. |
hcatalog-webhcat-env | Ubah nilai di lingkungan HCatalog WebHCat. |
hcatalog-webhcat-log4j2 | Ubah nilai di ebHCat log4j2.properties HCatalog W. |
hcatalog-webhcat-site | Ubah nilai dalam file webhcat-site.xml HCatalog WebHCat. |
hive | Pengaturan EMR yang dikurasi Amazon untuk Apache Hive. |
hive-beeline-log4j2 | Ubah nilai dalam file beeline-log4j2.properties Hive. |
hive-parquet-logging | Ubah nilai dalam file parquet-logging.properties Hive. |
hive-env | Ubah nilai dalam lingkungan Hive. |
hive-exec-log4j2 | Ubah nilai dalam file hive-exec-log 4j2.properties Hive. |
hive-llap-daemon-log4j2 | Ubah nilai dalam file llap-daemon-log 4j2.properties Hive. |
hive-log4j2 | Ubah nilai dalam file hive-log4j2.properties Hive. |
hive-site | Ubah nilai dalam file hive-site.xml Hive |
hiveserver2-site | Ubah nilai dalam file hiveserver2-site.xml Hive Server2 |
hue-ini | Ubah nilai dalam file ini Hue |
httpfs-env | Ubah nilai di HTTPFS lingkungan. |
httpfs-site | Ubah nilai dalam file httpfs-site.xml Hadoop. |
hadoop-kms-acls | Ubah nilai dalam file kms-acls.xml Hadoop. |
hadoop-kms-env | Ubah nilai di lingkungan HadoopKMS. |
hadoop-kms-log4j | Ubah nilai dalam file kms-log4j.properties Hadoop. |
hadoop-kms-site | Ubah nilai dalam file kms-site.xml Hadoop. |
hudi-env | Ubah nilai di lingkungan Hudi. |
jupyter-notebook-conf | Ubah nilai dalam file jupyter_notebook_config.py Jupyter Notebook. |
jupyter-hub-conf | Ubah nilai dalam JupyterHubs file jupyterhub_config.py. |
jupyter-s3-conf | Konfigurasikan persistensi Jupyter Notebook S3. |
jupyter-sparkmagic-conf | Ubah nilai dalam file config.json Sparkmagic. |
livy-conf | Ubah nilai dalam file livy.conf Livy. |
livy-env | Ubah nilai di lingkungan Livy. |
livy-log4j | Ubah pengaturan Livy log4j.properties. |
mapred-env | Ubah nilai di lingkungan MapReduce aplikasi. |
mapred-site | Ubah nilai dalam file mapred-site.xml MapReduce aplikasi. |
oozie-env | Ubah nilai di lingkungan Oozie. |
oozie-log4j | Ubah nilai dalam file oozie-log4j.properties Oozie. |
oozie-site | Ubah nilai dalam file oozie-site.xml Oozie. |
phoenix-hbase-metrics | Ubah nilai dalam file hadoop-metrics2-hbase.properties Phoenix. |
phoenix-hbase-site | Ubah nilai dalam file hbase-site.xml Phoenix. |
phoenix-log4j | Ubah nilai dalam file log4j.properties Phoenix. |
phoenix-metrics | Ubah nilai dalam file hadoop-metrics2-phoenix.properties Phoenix. |
pig-env | Ubah nilai di lingkungan Pig. |
pig-properties | Ubah nilai dalam file pig.properties Pig. |
pig-log4j | Ubah nilai dalam file log4j.properties Pig. |
presto-log | Ubah nilai dalam file log.properties Presto. |
presto-config | Ubah nilai dalam file config.properties Presto. |
presto-password-authenticator | Ubah nilai dalam file password-authenticator.properties Presto. |
presto-env | Ubah nilai dalam file presto-env.sh Presto. |
presto-node | Ubah nilai dalam file node.properties Presto. |
presto-connector-blackhole | Ubah nilai dalam file blackhole.properties Presto. |
presto-connector-cassandra | Ubah nilai dalam file cassandra.properties Presto. |
presto-connector-hive | Ubah nilai dalam file hive.properties Presto. |
presto-connector-jmx | Ubah nilai dalam file jmx.properties Presto. |
presto-connector-kafka | Ubah nilai dalam file kafka.properties Presto. |
presto-connector-localfile | Ubah nilai dalam file localfile.properties Presto. |
presto-connector-memory | Ubah nilai dalam file memory.properties Presto. |
presto-connector-mongodb | Ubah nilai dalam file mongodb.properties Presto. |
presto-connector-mysql | Ubah nilai dalam file mysql.properties Presto. |
presto-connector-postgresql | Ubah nilai dalam file postgresql.properties Presto. |
presto-connector-raptor | Ubah nilai dalam file raptor.properties Presto. |
presto-connector-redis | Ubah nilai dalam file redis.properties Presto. |
presto-connector-redshift | Ubah nilai dalam file redshift.properties Presto. |
presto-connector-tpch | Ubah nilai dalam file tpch.properties Presto. |
presto-connector-tpcds | Ubah nilai dalam file tpcds.properties Presto. |
prestosql-log | Ubah nilai dalam file log.properties Presto. |
prestosql-config | Ubah nilai dalam file config.properties Presto. |
prestosql-password-authenticator | Ubah nilai dalam file password-authenticator.properties Presto. |
prestosql-env | Ubah nilai dalam file presto-env.sh Presto. |
prestosql-node | Ubah nilai dalam file SQL node.properties Presto. |
prestosql-connector-blackhole | Ubah nilai dalam file SQL blackhole.properties Presto. |
prestosql-connector-cassandra | Ubah nilai dalam file SQL cassandra.properties Presto. |
prestosql-connector-hive | Ubah nilai dalam file SQL hive.properties Presto. |
prestosql-connector-jmx | Ubah nilai dalam file SQL jmx.properties Presto. |
prestosql-connector-kafka | Ubah nilai dalam file SQL kafka.properties Presto. |
prestosql-connector-localfile | Ubah nilai dalam file SQL localfile.properties Presto. |
prestosql-connector-memory | Ubah nilai dalam file memory.properties SQL Presto. |
prestosql-connector-mongodb | Ubah nilai dalam file SQL mongodb.properties Presto. |
prestosql-connector-mysql | Ubah nilai dalam file SQL mysql.properties Presto. |
prestosql-connector-postgresql | Ubah nilai dalam file SQL postgresql.properties Presto. |
prestosql-connector-raptor | Ubah nilai dalam file SQL raptor.properties Presto. |
prestosql-connector-redis | Ubah nilai dalam file SQL redis.properties Presto. |
prestosql-connector-redshift | Ubah nilai dalam file SQL redshift.properties Presto. |
prestosql-connector-tpch | Ubah nilai dalam file SQL tpch.properties Presto. |
prestosql-connector-tpcds | Ubah nilai dalam file SQL tpcds.properties Presto. |
ranger-kms-dbks-site | Ubah nilai dalam file dbks-site.xml dari Ranger. KMS |
ranger-kms-site | Ubah nilai dalam ranger-kms-site file.xml.Ranger. KMS |
ranger-kms-env | Ubah nilai di KMS lingkungan Ranger. |
ranger-kms-log4j | Ubah nilai dalam file kms-log4j.properties dari Ranger. KMS |
ranger-kms-db-ca | Ubah nilai untuk file CA di S3 untuk SQL SSL koneksi Saya dengan RangerKMS. |
spark | Pengaturan EMR yang dikurasi Amazon untuk Apache Spark. |
spark-defaults | Ubah nilai dalam file spark-defaults.conf Spark. |
spark-env | Ubah nilai di lingkungan Spark. |
spark-hive-site | Ubah nilai dalam file hive-site.xml Spark |
spark-log4j | Ubah nilai dalam file log4j.properties Spark. |
spark-metrics | Ubah nilai dalam file metrics.properties Spark. |
sqoop-env | Ubah nilai dalam lingkungan Sqoop. |
sqoop-oraoop-site | Ubah nilai dalam file oraoop-site.xml Sqoop OraOop ini. |
sqoop-site | Ubah nilai dalam file sqoop-site.xml Sqoop. |
tez-site | Ubah nilai dalam file tez-site.xml Tez. |
yarn-env | Ubah nilai di YARN lingkungan. |
yarn-site | Ubah nilai dalam YARN file yarn-site.xml. |
zeppelin-env | Ubah nilai di lingkungan Zeppelin. |
zookeeper-config | Ubah nilai dalam ZooKeeper file zoo.cfg. |
zookeeper-log4j | Ubah nilai dalam file ZooKeeper log4j.properties. |