Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Menggunakan kunci rahasia AWS Secrets Manager untuk variabel Apache Airflow
Contoh panggilan berikut AWS Secrets Manager untuk mendapatkan kunci rahasia untuk variabel Apache Airflow di Amazon Managed Workflows untuk Apache Airflow. Ini mengasumsikan Anda telah menyelesaikan langkah-langkahnya. Mengkonfigurasi koneksi Apache Airflow menggunakan rahasia AWS Secrets Manager
Versi
Prasyarat
Untuk menggunakan kode sampel di halaman ini, Anda memerlukan yang berikut:
-
Backend Secrets Manager sebagai opsi konfigurasi Apache Airflow seperti yang ditunjukkan pada. Mengkonfigurasi koneksi Apache Airflow menggunakan rahasia AWS Secrets Manager
-
String variabel Apache Airflow di Secrets Manager seperti yang ditunjukkan pada. Mengkonfigurasi koneksi Apache Airflow menggunakan rahasia AWS Secrets Manager
Izin
-
Izin Secrets Manager seperti yang ditunjukkan padaMengkonfigurasi koneksi Apache Airflow menggunakan rahasia AWS Secrets Manager.
Persyaratan
-
Untuk menggunakan contoh kode ini dengan Apache Airflow v1, tidak diperlukan dependensi tambahan. Kode ini menggunakan instalasi dasar Apache Airflow v1
di lingkungan Anda.
-
Untuk menggunakan contoh kode ini dengan Apache Airflow v2, tidak diperlukan dependensi tambahan. Kode ini menggunakan instalasi dasar Apache Airflow v2 di lingkungan
Anda.
Contoh kode
Langkah-langkah berikut menjelaskan cara membuat kode DAG yang memanggil Secrets Manager untuk mendapatkan rahasianya.
-
Di prompt perintah Anda, arahkan ke direktori tempat kode DAG Anda disimpan. Sebagai contoh:
cd dags
-
Salin isi contoh kode berikut dan simpan secara lokal sebagai
secrets-manager-var.py
.from airflow import DAG from airflow.operators.python_operator import PythonOperator from airflow.models import Variable from airflow.utils.dates import days_ago from datetime import timedelta import os DAG_ID = os.path.basename(__file__).replace(".py", "") DEFAULT_ARGS = { 'owner': 'airflow', 'depends_on_past': False, 'email': ['airflow@example.com'], 'email_on_failure': False, 'email_on_retry': False, } def get_variable_fn(**kwargs): my_variable_name = Variable.get("test-variable", default_var="undefined") print("my_variable_name: ", my_variable_name) return my_variable_name with DAG( dag_id=DAG_ID, default_args=DEFAULT_ARGS, dagrun_timeout=timedelta(hours=2), start_date=days_ago(1), schedule_interval='@once', tags=['variable'] ) as dag: get_variable = PythonOperator( task_id="get_variable", python_callable=get_variable_fn, provide_context=True )
Apa selanjutnya?
-
Pelajari cara mengunggah kode DAG dalam contoh ini ke
dags
folder di bucket Amazon S3 Anda. Menambahkan atau memperbarui DAGs