

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Como usar o Amazon MWAA com Amazon RDS para Microsoft SQL Server
<a name="samples-sql-server"></a>

É possível usar o Amazon MWAA para se conectar a um [RDS para SQL Server](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/CHAP_SQLServer.html). O exemplo do código a seguir usa DAGs em um ambiente Amazon Managed Workflows for Apache Airflow para se conectar e executar consultas em um Amazon RDS para Microsoft SQL Server.

**Topics**
+ [Versão](#samples-sql-server-version)
+ [Pré-requisitos](#samples-sql-server-prereqs)
+ [Dependências](#samples-sql-server-dependencies)
+ [Conexão Apache Airflow v2](#samples-sql-server-conn)
+ [Exemplo de código](#samples-sql-server-code)
+ [Próximas etapas](#samples-sql-server-next-up)

## Versão
<a name="samples-sql-server-version"></a>

É possível usar o exemplo de código nesta página com o **Apache Airflow v2** no [Python 3.10](https://peps.python.org/pep-0619/) e o **Apache Airflow v3** no [Python 3.11](https://peps.python.org/pep-0664/).

## Pré-requisitos
<a name="samples-sql-server-prereqs"></a>

Para usar o código de amostra nesta página, você precisará do seguinte:
+ Um [ambiente Amazon MWAA](get-started.md).
+ O Amazon MWAA e o RDS para SQL Server estão sendo executados na mesma Amazon VPC/
+ Os grupos de segurança de VPC do Amazon MWAA e do servidor estão configurados com as seguintes conexões:
  + Uma regra de entrada para a porta `1433` aberta para o Amazon RDS no grupo de segurança do Amazon MWAA
  + Ou uma regra de saída para a porta `1433` aberta do Amazon MWAA para o RDS
+ A conexão do Apache Airflow de RDS para SQL Server reflete o nome do host, a porta, o nome de usuário e a senha do banco de dados do servidor SQL do Amazon RDS criado no processo anterior.

## Dependências
<a name="samples-sql-server-dependencies"></a>

Para usar o código de amostra nesta seção, adicione a seguinte dependência ao seu `requirements.txt`. Consulte [Como instalar dependências do Python](working-dags-dependencies.md) para saber mais.

```
apache-airflow-providers-microsoft-mssql==1.0.1
			apache-airflow-providers-odbc==1.0.1
			pymssql==2.2.1
```

## Conexão Apache Airflow v2
<a name="samples-sql-server-conn"></a>

Caso esteja usando uma conexão no Apache Airflow v2, certifique-se de que o objeto de conexão Airflow inclua os seguintes pares de chave-valor:

1. **ID de conexão: ** mssql\$1default

1. **Tipo de conexão: ** Amazon Web Services

1. **Host: ** `YOUR_DB_HOST`

1. **Esquema: **

1. **Login: ** admin

1. **Senha: **

1. **Porta: ** 1433

1. **Extra: **

## Exemplo de código
<a name="samples-sql-server-code"></a>

1. No prompt de comando, navegue até o diretório em que o código do DAG está armazenado. Por exemplo:

   ```
   cd dags
   ```

1. Copie o conteúdo da amostra de código a seguir e salve localmente como `sql-server.py`.

   ```
   """
   Copyright Amazon.com, Inc. or its affiliates. All Rights Reserved.
   Permission is hereby granted, free of charge, to any person obtaining a copy of
   this software and associated documentation files (the "Software"), to deal in
   the Software without restriction, including without limitation the rights to
   use, copy, modify, merge, publish, distribute, sublicense, and/or sell copies of
   the Software, and to permit persons to whom the Software is furnished to do so.
   THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
   IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY, FITNESS
   FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE AUTHORS OR
   COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER LIABILITY, WHETHER
   IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM, OUT OF OR IN
   CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE SOFTWARE.
   """
   import pymssql
   import logging
   import sys
   from airflow import DAG
   from datetime import datetime
   from airflow.operators.mssql_operator import MsSqlOperator
   from airflow.operators.python_operator import PythonOperator
   
   default_args = {
       'owner': 'aws',
       'depends_on_past': False,
       'start_date': datetime(2019, 2, 20),
       'provide_context': True
   }
   
   dag = DAG(
       'mssql_conn_example', default_args=default_args, schedule_interval=None)
       
   drop_db = MsSqlOperator(
      task_id="drop_db",
      sql="DROP DATABASE IF EXISTS testdb;",
      mssql_conn_id="mssql_default",
      autocommit=True,
      dag=dag
   )
   
   create_db = MsSqlOperator(
      task_id="create_db",
      sql="create database testdb;",
      mssql_conn_id="mssql_default",
      autocommit=True,
      dag=dag
   )
   
   create_table = MsSqlOperator(
      task_id="create_table",
      sql="CREATE TABLE testdb.dbo.pet (name VARCHAR(20), owner VARCHAR(20));",
      mssql_conn_id="mssql_default",
      autocommit=True,
      dag=dag
   )
   
   insert_into_table = MsSqlOperator(
      task_id="insert_into_table",
      sql="INSERT INTO testdb.dbo.pet VALUES ('Olaf', 'Disney');",
      mssql_conn_id="mssql_default",
      autocommit=True,
      dag=dag
   )
   
   def select_pet(**kwargs):
      try:
           conn = pymssql.connect(
               server='sampledb.<xxxxxx>.<region>.rds.amazonaws.com',
               user='admin',
               password='<yoursupersecretpassword>',
               database='testdb'
           )
           
           # Create a cursor from the connection
           cursor = conn.cursor()
           cursor.execute("SELECT * from testdb.dbo.pet")
           row = cursor.fetchone()
           
           if row:
               print(row)
      except:
         logging.error("Error when creating pymssql database connection: %s", sys.exc_info()[0])
   
   select_query = PythonOperator(
       task_id='select_query',
       python_callable=select_pet,
       dag=dag,
   )
   
   drop_db >> create_db >> create_table >> insert_into_table >> select_query
   ```

## Próximas etapas
<a name="samples-sql-server-next-up"></a>
+ Saiba como fazer o upload do `requirements.txt` arquivo neste exemplo para seu bucket do Amazon S3 em [Como instalar dependências do Python](working-dags-dependencies.md).
+ Saiba como fazer o upload do código DAG neste exemplo para a pasta `dags` em seu bucket do Amazon S3 em [Como adicionar ou atualizar DAGs](configuring-dag-folder.md).
+ Explore exemplos de scripts e outros [exemplos de módulos pymssql](https://pymssql.readthedocs.io/en/stable/pymssql_examples.html).
+ Saiba mais sobre a execução do código SQL em um banco de dados Microsoft SQL específico usando [mssql\$1operator](https://airflow.apache.org/docs/apache-airflow/1.10.12/_api/airflow/operators/mssql_operator/index.html?highlight=mssqloperator#airflow.operators.mssql_operator.MsSqlOperator) no *Guia de referência do Apache Airflow*.