

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

# Menggunakan Amazon MWAA dengan Amazon RDS untuk Microsoft SQL Server
<a name="samples-sql-server"></a>

[Anda dapat menggunakan Alur Kerja Terkelola Amazon untuk Apache Airflow untuk menyambung ke RDS untuk SQL Server.](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_SQLServer.html) Contoh kode berikut digunakan DAGs pada Amazon Managed Workflows untuk lingkungan Apache Airflow untuk menyambung dan mengeksekusi kueri pada Amazon RDS for Microsoft SQL Server.

**Topics**
+ [Versi](#samples-sql-server-version)
+ [Prasyarat](#samples-sql-server-prereqs)
+ [Dependensi](#samples-sql-server-dependencies)
+ [Koneksi Apache Airflow v2](#samples-sql-server-conn)
+ [Contoh kode](#samples-sql-server-code)
+ [Apa selanjutnya?](#samples-sql-server-next-up)

## Versi
<a name="samples-sql-server-version"></a>

**[Anda dapat menggunakan contoh kode pada halaman ini dengan **Apache Airflow v2 di Python 3.10 dan Apache Airflow**[v3 di Python 3.11](https://peps.python.org/pep-0619/).](https://peps.python.org/pep-0664/)**

## Prasyarat
<a name="samples-sql-server-prereqs"></a>

Untuk menggunakan kode sampel di halaman ini, Anda memerlukan yang berikut:
+ Lingkungan [Amazon MWAA.](get-started.md)
+ Amazon MWAA dan RDS untuk SQL Server berjalan di Amazon VPC yang sama/
+ Grup keamanan VPC Amazon MWAA dan server dikonfigurasi dengan koneksi berikut:
  + Aturan masuk untuk port `1433` terbuka untuk Amazon RDS di grup keamanan Amazon MWAA
  + Atau aturan keluar untuk port `1433` terbuka dari Amazon MWAA Ke RDS
+ Apache Airflow Connection untuk RDS untuk SQL Server mencerminkan nama host, port, nama pengguna, dan kata sandi dari database server Amazon RDS SQL yang dibuat dalam proses sebelumnya.

## Dependensi
<a name="samples-sql-server-dependencies"></a>

Untuk menggunakan kode sampel di bagian ini, tambahkan dependensi berikut ke kode Anda`requirements.txt`. Untuk mempelajari lebih lanjut, lihat[Menginstal dependensi Python](working-dags-dependencies.md).

```
apache-airflow-providers-microsoft-mssql==1.0.1
			apache-airflow-providers-odbc==1.0.1
			pymssql==2.2.1
```

## Koneksi Apache Airflow v2
<a name="samples-sql-server-conn"></a>

Jika Anda menggunakan koneksi di Apache Airflow v2, pastikan objek koneksi Airflow menyertakan pasangan nilai kunci berikut:

1. **Id Konn:** mssql\$1default

1. **Jenis Conn:** Amazon Web Services

1. **Tuan rumah:** `YOUR_DB_HOST`

1. **Skema:**

1. **Masuk:** admin

1. **Kata Sandi:**

1. **Pelabuhan:** 1433

1. **Ekstra:**

## Contoh kode
<a name="samples-sql-server-code"></a>

1. Di prompt perintah Anda, arahkan ke direktori tempat kode DAG Anda disimpan. Contoh:

   ```
   cd dags
   ```

1. Salin isi contoh kode berikut dan simpan secara lokal sebagai`sql-server.py`.

   ```
   """
   Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved.
   Permission is hereby granted, free of charge, to any person obtaining a copy of
   this software and associated documentation files (the "Software"), to deal in
   the Software without restriction, including without limitation the rights to
   use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies of
   the Software, and to permit persons to whom the Software is furnished to do so.
   THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
   IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS
   FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR
   COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER
   IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
   CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
   """
   import pymssql
   import logging
   import sys
   from airflow import DAG
   from datetime import datetime
   from airflow.operators.mssql_operator import MsSqlOperator
   from airflow.operators.python_operator import PythonOperator
   
   default_args = {
       'owner': 'aws',
       'depends_on_past': False,
       'start_date': datetime(2019, 2, 20),
       'provide_context': True
   }
   
   dag = DAG(
       'mssql_conn_example', default_args=default_args, schedule_interval=None)
       
   drop_db = MsSqlOperator(
      task_id="drop_db",
      sql="DROP DATABASE IF EXISTS testdb;",
      mssql_conn_id="mssql_default",
      autocommit=True,
      dag=dag
   )
   
   create_db = MsSqlOperator(
      task_id="create_db",
      sql="create database testdb;",
      mssql_conn_id="mssql_default",
      autocommit=True,
      dag=dag
   )
   
   create_table = MsSqlOperator(
      task_id="create_table",
      sql="CREATE TABLE testdb.dbo.pet (name VARCHAR(20), owner VARCHAR(20));",
      mssql_conn_id="mssql_default",
      autocommit=True,
      dag=dag
   )
   
   insert_into_table = MsSqlOperator(
      task_id="insert_into_table",
      sql="INSERT INTO testdb.dbo.pet VALUES ('Olaf', 'Disney');",
      mssql_conn_id="mssql_default",
      autocommit=True,
      dag=dag
   )
   
   def select_pet(**kwargs):
      try:
           conn = pymssql.connect(
               server='sampledb.<xxxxxx>.<region>.rds.amazonaws.com',
               user='admin',
               password='<yoursupersecretpassword>',
               database='testdb'
           )
           
           # Create a cursor from the connection
           cursor = conn.cursor()
           cursor.execute("SELECT * from testdb.dbo.pet")
           row = cursor.fetchone()
           
           if row:
               print(row)
      except:
         logging.error("Error when creating pymssql database connection: %s", sys.exc_info()[0])
   
   select_query = PythonOperator(
       task_id='select_query',
       python_callable=select_pet,
       dag=dag,
   )
   
   drop_db >> create_db >> create_table >> insert_into_table >> select_query
   ```

## Apa selanjutnya?
<a name="samples-sql-server-next-up"></a>
+ Pelajari cara mengunggah `requirements.txt` file dalam contoh ini ke bucket Amazon S3 Anda. [Menginstal dependensi Python](working-dags-dependencies.md)
+ Pelajari cara mengunggah kode DAG dalam contoh ini ke `dags` folder di bucket Amazon S3 Anda. [Menambahkan atau memperbarui DAGs](configuring-dag-folder.md)
+ Jelajahi contoh skrip dan contoh modul [pymssql](https://pymssql.readthedocs.io/en/stable/pymssql_examples.html) lainnya.
+ *Pelajari lebih lanjut tentang mengeksekusi kode SQL dalam database Microsoft SQL tertentu menggunakan [mssql\$1operator](https://airflow.apache.org/docs/apache-airflow/1.10.12/_api/airflow/operators/mssql_operator/index.html?highlight=mssqloperator#airflow.operators.mssql_operator.MsSqlOperator) dalam panduan referensi Apache Airflow.*