Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Pertimbangan dan batasan saat menggunakan konektor Spark
-
Kami menyarankan Anda mengaktifkan JDBC koneksi dari Spark di Amazon EMR ke Amazon Redshift. SSL
-
Kami menyarankan Anda mengelola kredensil untuk cluster Amazon Redshift di AWS Secrets Manager sebagai praktik terbaik. Lihat Menggunakan AWS Secrets Manager untuk mengambil kredensil untuk menghubungkan ke Amazon Redshift sebagai contoh.
-
Kami menyarankan Anda meneruskan IAM peran dengan parameter
aws_iam_role
untuk parameter autentikasi Amazon Redshift. -
Parameter
tempformat
saat ini tidak mendukung format Parket. -
tempdir
URIMenunjuk ke lokasi Amazon S3. Direktori temp ini tidak dibersihkan secara otomatis dan karenanya dapat menambah biaya tambahan. -
Pertimbangkan rekomendasi berikut untuk Amazon Redshift:
-
Kami menyarankan Anda memblokir akses publik ke cluster Amazon Redshift.
-
Kami menyarankan Anda mengaktifkan pencatatan audit Amazon Redshift.
-
Kami menyarankan Anda mengaktifkan enkripsi saat istirahat Amazon Redshift.
-
-
Pertimbangkan rekomendasi berikut untuk Amazon S3:
-
Kami menyarankan Anda memblokir akses publik ke bucket Amazon S3.
-
Kami menyarankan Anda menggunakan enkripsi sisi server Amazon S3 untuk mengenkripsi bucket Amazon S3 yang digunakan.
-
Sebaiknya gunakan kebijakan siklus hidup Amazon S3 untuk menentukan aturan retensi bucket Amazon S3.
-
Amazon EMR selalu memverifikasi kode yang diimpor dari sumber terbuka ke dalam gambar. Demi keamanan, kami tidak mendukung metode otentikasi berikut dari Spark ke Amazon S3:
-
Pengaturan AWS kunci akses dalam klasifikasi
hadoop-env
konfigurasi -
Encoding AWS kunci akses di
tempdir
URI
-
-
Untuk informasi selengkapnya tentang penggunaan konektor dan parameter yang didukung, lihat sumber daya berikut:
-
Integrasi Amazon Redshift untuk Apache Spark di Panduan Manajemen Amazon Redshift
-
Repositori
spark-redshift
komunitasdi Github