

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# Amazon RDS for Microsoft SQL Server で Amazon MWAA を使用する
<a name="samples-sql-server"></a>

Amazon Managed Workflows for Apache Airflow を使用して [RDS for SQL Server](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_SQLServer.html) に接続できます。次のサンプルコードでは、Amazon Managed Workflows for Apache Airflow 環境の DAG を使用して、Amazon RDS for Microsoft SQL Server に接続し、クエリを実行します。

**Topics**
+ [バージョン](#samples-sql-server-version)
+ [前提条件](#samples-sql-server-prereqs)
+ [依存関係](#samples-sql-server-dependencies)
+ [Apache Airflow v2 接続](#samples-sql-server-conn)
+ [コードサンプル](#samples-sql-server-code)
+ [次のステップ](#samples-sql-server-next-up)

## バージョン
<a name="samples-sql-server-version"></a>

このページのコード例は、[Python 3.10](https://peps.python.org/pep-0619/) の **Apache Airflow v2** および [Python 3.11](https://peps.python.org/pep-0664/) の **Apache Airflow v3** で使用可能です。

## 前提条件
<a name="samples-sql-server-prereqs"></a>

このページのサンプルコードを使用するには、以下が必要です。
+ [Amazon MWAA 環境](get-started.md)。
+ Amazon MWAA と RDS for SQL Server は同じ Amazon VPC/ で実行されています
+ Amazon MWAA とサーバーの VPC セキュリティグループは、以下の接続で構成されます。
  + Amazon MWAA のセキュリティグループにある Amazon RDS 用にポート `1433` を開くためのインバウンドルール
  + または、Amazon MWAA から RDS へ `1433` のポートのオープンに関するアウトバウンドルール
+ SQL サーバー用 RDS 用 Apache Airflow Connection には、前のプロセスで作成された Amazon RDS SQL サーバーデータベースのホスト名、ポート、ユーザー名、パスワードが反映されます。

## 依存関係
<a name="samples-sql-server-dependencies"></a>

このセクションのサンプルコードを使用するには、`requirements.txt` に次の依存関係を追加します。詳細については、[Python 依存関係のインストール](working-dags-dependencies.md) を参照してください。

```
apache-airflow-providers-microsoft-mssql==1.0.1
			apache-airflow-providers-odbc==1.0.1
			pymssql==2.2.1
```

## Apache Airflow v2 接続
<a name="samples-sql-server-conn"></a>

Apache Airflow v2 の接続を使用している場合は、Airflow 接続オブジェクトに次のキーと値のペアが含まれていることを確認してください。

1. **接続 ID: **mssql\$1default

1. **接続タイプ: ** Amazon Web Services

1. **ホスト:** `YOUR_DB_HOST`

1. **スキーマ：**

1. **ログイン:**管理者

1. **パスワード: **

1. **ポート**: 1433

1. **エキストラ:**

## コードサンプル
<a name="samples-sql-server-code"></a>

1. コマンドプロンプトで、DAG コードが保存されているディレクトリに移動します。例:

   ```
   cd dags
   ```

1. 以下のコードサンプルの内容をコピーし、ローカルに `sql-server.py` として保存します。

   ```
   """
   Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved.
   Permission is hereby granted, free of charge, to any person obtaining a copy of
   this software and associated documentation files (the "Software"), to deal in
   the Software without restriction, including without limitation the rights to
   use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies of
   the Software, and to permit persons to whom the Software is furnished to do so.
   THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
   IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS
   FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR
   COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER
   IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
   CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
   """
   import pymssql
   import logging
   import sys
   from airflow import DAG
   from datetime import datetime
   from airflow.operators.mssql_operator import MsSqlOperator
   from airflow.operators.python_operator import PythonOperator
   
   default_args = {
       'owner': 'aws',
       'depends_on_past': False,
       'start_date': datetime(2019, 2, 20),
       'provide_context': True
   }
   
   dag = DAG(
       'mssql_conn_example', default_args=default_args, schedule_interval=None)
       
   drop_db = MsSqlOperator(
      task_id="drop_db",
      sql="DROP DATABASE IF EXISTS testdb;",
      mssql_conn_id="mssql_default",
      autocommit=True,
      dag=dag
   )
   
   create_db = MsSqlOperator(
      task_id="create_db",
      sql="create database testdb;",
      mssql_conn_id="mssql_default",
      autocommit=True,
      dag=dag
   )
   
   create_table = MsSqlOperator(
      task_id="create_table",
      sql="CREATE TABLE testdb.dbo.pet (name VARCHAR(20), owner VARCHAR(20));",
      mssql_conn_id="mssql_default",
      autocommit=True,
      dag=dag
   )
   
   insert_into_table = MsSqlOperator(
      task_id="insert_into_table",
      sql="INSERT INTO testdb.dbo.pet VALUES ('Olaf', 'Disney');",
      mssql_conn_id="mssql_default",
      autocommit=True,
      dag=dag
   )
   
   def select_pet(**kwargs):
      try:
           conn = pymssql.connect(
               server='sampledb.<xxxxxx>.<region>.rds.amazonaws.com',
               user='admin',
               password='<yoursupersecretpassword>',
               database='testdb'
           )
           
           # Create a cursor from the connection
           cursor = conn.cursor()
           cursor.execute("SELECT * from testdb.dbo.pet")
           row = cursor.fetchone()
           
           if row:
               print(row)
      except:
         logging.error("Error when creating pymssql database connection: %s", sys.exc_info()[0])
   
   select_query = PythonOperator(
       task_id='select_query',
       python_callable=select_pet,
       dag=dag,
   )
   
   drop_db >> create_db >> create_table >> insert_into_table >> select_query
   ```

## 次のステップ
<a name="samples-sql-server-next-up"></a>
+ この例の `requirements.txt` ファイルを Amazon S3 バケットにアップロードする方法について詳しくは、[Python 依存関係のインストール](working-dags-dependencies.md) をご覧ください。
+ この例の DAG コードを Amazon S3 バケットの `dags` フォルダにアップロードする方法については、[DAG の追加と更新](configuring-dag-folder.md) を参照してください。
+ サンプルスクリプトやその他の [pymssql モジュールの例](https://pymssql.readthedocs.io/en/stable/pymssql_examples.html)を参照してください。
+ [mssql\$1operator](https://airflow.apache.org/docs/apache-airflow/1.10.12/_api/airflow/operators/mssql_operator/index.html?highlight=mssqloperator#airflow.operators.mssql_operator.MsSqlOperator) を使用した特定の Microsoft SQL データベースでの SQL コード実行については、*「Apache Airflow リファレンスガイド」*を参照してください。