Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Halaman ini menjelaskan pertanyaan umum yang mungkin Anda temui saat menggunakan Alur Kerja Terkelola Amazon untuk Apache Airflow.
Daftar Isi
Berapa banyak penyimpanan tugas yang tersedia untuk setiap lingkungan?
Apa sistem operasi default yang digunakan untuk lingkungan Amazon MWAA?
Dapatkah saya menggunakan gambar khusus untuk lingkungan Amazon MWAA saya?
Mengapa aturan referensi mandiri diperlukan pada grup keamanan VPC?
Dapatkah saya menyembunyikan lingkungan dari grup yang berbeda di IAM?
Dapatkah saya menyimpan data sementara pada Apache Airflow Worker?
Dapatkah saya menentukan lebih dari 25 Apache Airflow Workers?
Apakah Amazon MWAA mendukung Amazon bersama VPCs atau subnet bersama?
DAGs, Operator, Koneksi, dan pertanyaan lainnya
Berapa lama waktu yang dibutuhkan Amazon MWAA untuk mengenali file DAG baru?
Bisakah saya menghapus plugins.zip atau requirements.txt dari lingkungan?
Mengapa saya tidak melihat plugin saya di menu Plugin Admin Apache Airflow v2.0.2?
Dapatkah saya menggunakan Operator AWS Database Migration Service (DMS)?
Versi yang didukung
Apa dukungan Amazon MWAA untuk Apache Airflow v2?
Untuk mempelajari apa yang didukung Amazon MWAA, lihat. Versi Apache Airflow di Amazon Managed Workflow untuk Apache Airflow
Mengapa Apache Airflow versi lama tidak didukung?
Kami hanya mendukung versi Apache Airflow terbaru (pada saat peluncuran) Apache Airflow v1.10.12 karena masalah keamanan dengan versi yang lebih lama.
Versi Python apa yang harus saya gunakan?
Versi Apache Airflow berikut didukung di Alur Kerja Terkelola Amazon untuk Apache Airflow.
catatan
-
Dimulai dengan Apache Airflow v2.2.2, Amazon MWAA mendukung penginstalan persyaratan Python, paket penyedia, dan plugin khusus langsung di server web Apache Airflow.
-
Dimulai dengan Apache Airflow v2.7.2, file persyaratan Anda harus menyertakan pernyataan.
--constraint
Jika Anda tidak memberikan kendala, Amazon MWAA akan menentukan satu untuk Anda untuk memastikan paket yang tercantum dalam persyaratan Anda kompatibel dengan versi Apache Airflow yang Anda gunakan.Untuk informasi selengkapnya tentang pengaturan batasan dalam file persyaratan Anda, lihat Menginstal dependensi Python.
Versi Apache Airflow | Panduan Aliran Udara Apache | Kendala Aliran Udara Apache | Versi Python |
---|---|---|---|
Versi pip
apa yang digunakan Amazon MWAA?
Untuk lingkungan yang menjalankan Apache Airflow v1.10.12, Amazon pip
MWAA menginstal versi 21.1.2.
catatan
Amazon MWAA tidak akan meningkatkan pip
untuk lingkungan Apache Airflow v1.10.12.
Untuk lingkungan yang menjalankan Apache Airflow v2 dan yang lebih baru, Amazon MWAA menginstal versi 21.3.1. pip
Kasus penggunaan
Kapan saya harus menggunakan AWS Step Functions vs. Amazon MWAA?
-
Anda dapat menggunakan Step Functions untuk memproses pesanan pelanggan individu, karena Step Functions dapat menskalakan untuk memenuhi permintaan untuk satu pesanan atau satu juta pesanan.
-
Jika Anda menjalankan alur kerja semalam yang memproses pesanan hari sebelumnya, Anda dapat menggunakan Step Functions atau Amazon MWAA. Amazon MWAA memungkinkan Anda opsi open source untuk mengabstraksi alur kerja dari AWS sumber daya yang Anda gunakan.
Spesifikasi lingkungan
Berapa banyak penyimpanan tugas yang tersedia untuk setiap lingkungan?
Penyimpanan tugas dibatasi hingga 20 GB, dan ditentukan oleh Amazon ECS Fargate 1.4. Jumlah RAM ditentukan oleh kelas lingkungan yang Anda tentukan. Untuk informasi selengkapnya tentang kelas lingkungan, lihatMengkonfigurasi kelas lingkungan Amazon MWAA.
Apa sistem operasi default yang digunakan untuk lingkungan Amazon MWAA?
Lingkungan Amazon MWAA dibuat pada instans yang menjalankan Amazon Linux 2 untuk versi 2.6 dan yang lebih lama, dan pada instans yang menjalankan Amazon Linux 2023 untuk versi 2.7 dan yang lebih baru.
Dapatkah saya menggunakan gambar khusus untuk lingkungan Amazon MWAA saya?
Gambar kustom tidak didukung. Amazon MWAA menggunakan gambar yang dibangun di Amazon Linux AMI. Amazon MWAA menginstal persyaratan tambahan dengan menjalankan pip3 -r install
persyaratan yang ditentukan dalam file requirements.txt yang Anda tambahkan ke bucket Amazon S3 untuk lingkungan.
Apakah Amazon MWAA HIPAA sesuai?
Amazon MWAA memenuhi syarat Undang-Undang Portabilitas dan Akuntabilitas Asuransi Kesehatan
Apakah Amazon MWAA mendukung Instans Spot?
Amazon MWAA saat ini tidak mendukung jenis Instans Spot EC2 Amazon sesuai permintaan untuk Apache Airflow. Namun, lingkungan Amazon MWAA dapat memicu Instans Spot di, misalnya, Amazon EMR dan Amazon. EC2
Apakah Amazon MWAA mendukung domain khusus?
Untuk dapat menggunakan domain khusus untuk nama host Amazon MWAA Anda, lakukan salah satu hal berikut:
-
Untuk penerapan Amazon MWAA dengan akses server web publik, Anda dapat menggunakan Amazon dengan CloudFront Lambda @Edge untuk mengarahkan lalu lintas ke lingkungan Anda, dan memetakan nama domain khusus ke. CloudFront Untuk informasi selengkapnya dan contoh pengaturan domain kustom untuk lingkungan publik, lihat contoh domain kustom Amazon MWAA untuk server web publik di repositori
contoh Amazon MWAA. GitHub -
Untuk penerapan Amazon MWAA dengan akses server web pribadi, lihat. Menyiapkan domain khusus untuk server web Apache Airflow
Bisakah saya SSH ke lingkungan saya?
Meskipun SSH tidak didukung di lingkungan Amazon MWAA, dimungkinkan untuk menggunakan DAG untuk menjalankan perintah bash menggunakan file. BashOperator
Sebagai contoh:
from airflow import DAG
from airflow.operators.bash_operator import BashOperator
from airflow.utils.dates import days_ago
with DAG(dag_id="any_bash_command_dag", schedule_interval=None, catchup=False, start_date=days_ago(1)) as dag:
cli_command = BashOperator(
task_id="bash_command",
bash_command="{{ dag_run.conf['command'] }}"
)
Untuk memicu DAG di Apache Airflow UI, gunakan:
{ "command" : "your bash command"}
Mengapa aturan referensi mandiri diperlukan pada grup keamanan VPC?
Dengan membuat aturan referensi diri, Anda membatasi sumber ke grup keamanan yang sama di VPC, dan itu tidak terbuka untuk semua jaringan. Untuk mempelajari selengkapnya, lihat Keamanan di VPC Anda di Amazon MWAA.
Dapatkah saya menyembunyikan lingkungan dari grup yang berbeda di IAM?
Anda dapat membatasi akses dengan menentukan nama lingkungan AWS Identity and Access Management, namun, pemfilteran visibilitas tidak tersedia di AWS konsol—jika pengguna dapat melihat satu lingkungan, mereka dapat melihat semua lingkungan.
Dapatkah saya menyimpan data sementara pada Apache Airflow Worker?
Operator Aliran Udara Apache Anda dapat menyimpan data sementara pada Pekerja. Apache Airflow Workers dapat mengakses file sementara /tmp
di wadah Fargate untuk lingkungan Anda.
catatan
Total penyimpanan tugas dibatasi hingga 20 GB, menurut Amazon ECS Fargate 1.4. Tidak ada jaminan bahwa tugas selanjutnya akan berjalan pada instance kontainer Fargate yang sama, yang mungkin menggunakan folder yang berbeda/tmp
.
Dapatkah saya menentukan lebih dari 25 Apache Airflow Workers?
Ya. Meskipun Anda dapat menentukan hingga 25 pekerja Apache Airflow di konsol Amazon MWAA, Anda dapat mengonfigurasi hingga 50 pada lingkungan dengan meminta peningkatan kuota. Untuk informasi selengkapnya, lihat Meminta peningkatan kuota.
Apakah Amazon MWAA mendukung Amazon bersama VPCs atau subnet bersama?
Amazon MWAA tidak mendukung Amazon bersama VPCs atau subnet bersama. VPC Amazon yang Anda pilih saat membuat lingkungan harus dimiliki oleh akun yang mencoba menciptakan lingkungan. Namun, Anda dapat merutekan lalu lintas dari VPC Amazon di akun Amazon MWAA ke VPC bersama. Untuk informasi selengkapnya, dan untuk melihat contoh perutean lalu lintas ke VPC Amazon bersama, lihat Perutean keluar terpusat ke internet di Panduan Gateway Transit VPC Amazon.
Dapatkah saya membuat atau mengintegrasikan antrian Amazon SQS khusus untuk mengelola eksekusi tugas dan orkestrasi alur kerja di Apache Airflow?
Tidak, Anda tidak dapat membuat, memodifikasi, atau menggunakan antrian Amazon SQS khusus dalam Amazon MWAA. Ini karena Amazon MWAA secara otomatis menyediakan dan mengelola antrian Amazon SQS sendiri untuk setiap lingkungan Amazon MWAA.
Metrik
Metrik apa yang digunakan untuk menentukan apakah akan menskalakan Pekerja?
Amazon MWAA memantau QueuedTasksdan RunningTasksmasuk CloudWatch untuk menentukan apakah akan menskalakan Pekerja Aliran Udara Apache di lingkungan Anda. Untuk mempelajari selengkapnya, lihat Pemantauan dan metrik untuk Alur Kerja Terkelola Amazon untuk Apache Airflow.
Bisakah saya membuat metrik khusus? CloudWatch
Tidak di CloudWatch konsol. Namun, Anda dapat membuat DAG yang menulis metrik khusus. CloudWatch Untuk informasi selengkapnya, lihat Menggunakan DAG untuk menulis metrik khusus di CloudWatch.
DAGs, Operator, Koneksi, dan pertanyaan lainnya
Dapatkah saya menggunakanPythonVirtualenvOperator
?
PythonVirtualenvOperator
Ini tidak didukung secara eksplisit di Amazon MWAA, tetapi Anda dapat membuat plugin khusus yang menggunakan. PythonVirtualenvOperator
Untuk kode sampel, lihat Membuat plugin khusus untuk Apache Airflow PythonVirtualenvOperator.
Berapa lama waktu yang dibutuhkan Amazon MWAA untuk mengenali file DAG baru?
DAGs disinkronkan secara berkala dari bucket Amazon S3 ke lingkungan Anda. Jika Anda menambahkan file DAG baru, dibutuhkan sekitar 300 detik bagi Amazon MWAA untuk mulai menggunakan file baru. Jika Anda memperbarui DAG yang ada, Amazon MWAA membutuhkan waktu sekitar 30 detik untuk mengenali pembaruan Anda.
Nilai-nilai ini, 300 detik untuk yang baru DAGs, dan 30 detik untuk pembaruan yang ada DAGs, sesuai dengan opsi konfigurasi Apache Airflow dag_dir_list_interval
min_file_process_interval
Mengapa file DAG saya tidak diambil oleh Apache Airflow?
Berikut ini adalah solusi yang mungkin untuk masalah ini:
-
Pastikan peran eksekusi Anda memiliki izin yang cukup untuk bucket Amazon S3 Anda. Untuk mempelajari selengkapnya, lihat Peran eksekusi Amazon MWAA.
-
Periksa apakah bucket Amazon S3 telah mengonfigurasi Blokir Akses Publik, dan Pembuatan Versi diaktifkan. Untuk mempelajari selengkapnya, lihat Buat bucket Amazon S3 untuk Amazon MWAA.
-
Verifikasi file DAG itu sendiri. Misalnya, pastikan bahwa setiap DAG memiliki ID DAG yang unik.
Bisakah saya menghapus plugins.zip
atau requirements.txt
dari lingkungan?
Saat ini, tidak ada cara untuk menghapus plugins.zip atau requirements.txt dari lingkungan setelah ditambahkan, tetapi kami sedang mengerjakan masalah ini. Untuk sementara, solusinya adalah menunjuk ke teks kosong atau file zip, masing-masing. Untuk mempelajari selengkapnya, lihat Menghapus file di Amazon S3.
Mengapa saya tidak melihat plugin saya di menu Plugin Admin Apache Airflow v2.0.2?
Untuk alasan keamanan, server Web Apache Airflow di Amazon MWAA memiliki jalan keluar jaringan terbatas, dan tidak menginstal plugin atau dependensi Python langsung di server web Apache Airflow untuk lingkungan versi 2.0.2. Plugin yang ditampilkan memungkinkan Amazon MWAA untuk mengautentikasi pengguna Apache Airflow Anda di (IAM). AWS Identity and Access Management
Untuk dapat menginstal plugin dan dependensi Python langsung di server web, kami sarankan membuat environemnt baru dengan Apache Airflow v2.2 dan di atasnya. Amazon MWAA menginstal dependensi Python dan dan plugin khusus langsung di server web untuk Apache Airflow v2.2 dan di atasnya.
Dapatkah saya menggunakan Operator AWS Database Migration Service (DMS)?
Amazon MWAA mendukung Operator DMS
Ketika saya mengakses Airflow REST API menggunakan AWS kredensialnya, dapatkah saya meningkatkan batas pelambatan menjadi lebih dari 10 transaksi per detik (TPS)?
Ya, Anda bisa. Untuk meningkatkan batas throttling, silakan hubungi Customer AWS Support