

 O Amazon Redshift não permitirá mais a criação de UDFs do Python a partir do Patch 198. As UDFs do Python existentes continuarão a funcionar normalmente até 30 de junho de 2026. Para ter mais informações, consulte a [publicação de blog ](https://aws.amazon.com/blogs/big-data/amazon-redshift-python-user-defined-functions-will-reach-end-of-support-after-june-30-2026/). 

# Criar bancos de dados de destino no Amazon Redshift
<a name="zero-etl-using.creating-db"></a>

Para replicar dados da origem para o Amazon Redshift, você deve criar um banco de dados a partir da integração no Amazon Redshift.

Conecte-se ao grupo de trabalho ou ao cluster provisionado do Redshift Serverless de destino e crie um banco de dados com uma referência ao identificador de integração. Esse identificador é o valor retornado para `integration_id` quando você consulta a visualização [SVV\$1INTEGRATION](https://docs.aws.amazon.com/redshift/latest/dg/r_SVV_INTEGRATION.html).

**Importante**  
Para criar um banco de dados a partir da integração, a integração ETL zero deve ser criada e estar no estado `Active` no console do Amazon Redshift.

Para começar a replicar dados da origem para o Amazon Redshift, você deve crie um banco de dados a partir da integração no Amazon Redshift. Você pode criar o banco de dados usando o console do Amazon Redshift ou o editor de consultas v2. 

------
#### [ Amazon Redshift console ]

1. No painel de navegação à esquerda, escolha **Integrações ETL zero**.

1. Escolha uma integração na lista.

1. Se estiver usando um cluster provisionado, você deverá primeiramente se conectar ao banco de dados. Escolha **Connect to database (Conectar ao banco de dados)**. É possível se conectar usando uma conexão recente ou criando uma.

1. Para criar um banco de dados com base na integração, escolha **Criar banco de dados com base na integração**. 

1. Insira um **Nome de banco de dados de destino**. O **ID de integração** e o **Nome do data warehouse** são pré-preenchidos. 

   Para origens do Aurora PostgreSQL, RDS para PostgreSQL, ou RDS para Oracle, insira o **Banco de dados de origem nomeado** especificado por você ao criar a integração ETL zero. Nesses casos, você pode mapear no máximo 100 bancos de dados de origem para bancos de dados do Amazon Redshift.

1. Selecione **Criar banco de dados**.

------
#### [ Amazon Redshift query editor v2 ]

1. Navegue até o console do Amazon Redshift e escolha **Editor de consultas v2**.

1. No painel à esquerda, escolha o grupo de trabalho do Amazon Redshift sem servidor ou o cluster provisionado do Amazon Redshift e, em seguida, conecte-se a ele.

1. Para obter o ID de integração, navegue até a lista de integrações no console do Amazon Redshift.

   Ou você pode executar o seguinte comando para obter o valor de `integration_id`:

   ```
   SELECT integration_id FROM SVV_INTEGRATION;
   ```

1. Depois, execute o comando a seguir para criar o banco de dados. Ao especificar o ID de integração, você estabelece uma conexão entre o banco de dados e a origem.

   Substitua `integration_id` pelo valor retornado pelo comando anterior.

   ```
   CREATE DATABASE destination_db_name FROM INTEGRATION 'integration_id';
   ```

   Para fontes do Aurora PostgreSQL, você também deve incluir uma referência ao banco de dados nomeado dentro do cluster especificado por você ao criar a integração. Por exemplo:

   ```
   CREATE DATABASE "destination_db_name" FROM INTEGRATION 'integration_id' DATABASE "named_db";
   ```

------

Para ter mais informações sobre como criar um banco de dados para um destino de integração ETL zero, consulte [CREATE DATABASE* no *Guia do desenvolvedor do Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/dg/r_CREATE_DATABASE.html). Você pode usar ALTER DATBASE para alterar os parâmetros do banco de dados, como REFRESH INTERVAL. Para ter mais informações sobre como alterar um banco de dados para um destino de integração ETL zero, consulte [ALTER DATABASE* no *Guia do desenvolvedor do Amazon Redshift](https://docs.aws.amazon.com/redshift/latest/dg/r_ALTER_DATABASE.html).

**nota**  
Somente a fonte de integração pode atualizar os dados no banco de dados criado por você pela integração. Para alterar o esquema de uma tabela, execute comandos DDL ou DML nas tabelas na origem. É possível executar comandos DDL e DML em tabelas na origem, mas só executar comandos DDL e consultas somente leitura no banco de dados de destino.

Para obter informações sobre como exibir o status de um banco de dados de destino, consulte [Visualizar Integrações ETL zero](zero-etl-using.describing.md).

Depois de criar um banco de dados de destino, será possível adicionar dados à origem. Para adicionar dados à origem, consulte um dos seguintes tópicos:
+ Para fontes do Aurora, consulte [Add data to the source DB cluster](https://docs.aws.amazon.com/AmazonRDS/latest/AuroraUserGuide/zero-etl.querying.html#zero-etl.add-data-rds) no *Guia do usuário do Amazon Aurora*.
+ Para origens do Amazon RDS, consulte [Add data to the source DB instance](https://docs.aws.amazon.com/AmazonRDS/latest/UserGuide/zero-etl.querying.html#zero-etl.add-data-rds) no *Guia do usuário do Amazon RDS*.
+ Para origens do DynamoDB, consulte [Conceitos básicos do DynamoDB](https://docs.aws.amazon.com/amazondynamodb/latest/developerguide/GettingStartedDynamoDB.html) no *Guia do desenvolvedor do Amazon DynamoDB*.
+ Para Integrações ETL zero com origens de aplicações, consulte [Integrações ETL zero](https://docs.aws.amazon.com/glue/latest/dg/zero-etl-using.html) no *Guia do desenvolvedor do AWS Glue*.