Considerações sobre exportações do cluster de banco de dados - Amazon Aurora

Considerações sobre exportações do cluster de banco de dados

Use as seções a seguir para saber sobre as limitações, as convenções de nomenclatura de arquivos, além da conversão e do armazenamento de dados ao exportar dados do cluster de banco de dados para o Amazon S3.

Limitações

A exportação de dados de cluster de banco de dados para o Amazon S3 apresenta as seguintes limitações:

  • Não é possível executar várias tarefas de exportação para o mesmo cluster de banco de dados simultaneamente. Isso se aplica a exportações totais e parciais.

  • Você pode ter até cinco tarefas de exportação de snapshot de banco de dados simultâneas em andamento por Conta da AWS.

  • Os clusters de banco de dados do Aurora Serverless v1 não são compatíveis com exportações para o S3.

  • O Aurora MySQL e o Aurora PostgreSQL são compatíveis com exportações para o S3 somente para o modo de mecanismo provisionado.

  • As exportações para o S3 não são compatíveis com prefixos do S3 contendo dois pontos (:).

  • Os seguintes caracteres no caminho do arquivo do S3 são convertidos em sublinhados (_) durante a exportação:

    \ ` " (space)
  • Se um banco de dados, esquema ou tabela tiver caracteres em seu nome diferentes dos a seguir, a exportação parcial não será aceita. No entanto, você pode exportar o cluster de banco de dados inteiro.

    • Letras latinas (A–Z)

    • Dígitos (0–9)

    • Símbolo do dólar ($)

    • Sublinhado (_)

  • Espaços ( ) e alguns caracteres não são compatíveis em nomes de colunas de tabelas de banco de dados. As tabelas com os seguintes caracteres em nomes de colunas são ignoradas durante a exportação:

    , ; { } ( ) \n \t = (space)
  • As tabelas com barras (/) em seus nomes são ignoradas durante a exportação.

  • As tabelas temporárias e não registradas do Aurora PostgreSQL são ignoradas durante a exportação.

  • Se os dados contiverem um objeto grande, como um BLOB ou um CLOB, com tamanho próximo ou superior a 500 MB, ocorrerá uma falha na exportação.

  • Se uma tabela contiver uma linha grande próxima ou maior que 2 GB, a tabela será ignorada durante a exportação.

  • Em relação a exportações parciais, a lista ExportOnly tem um tamanho máximo de 200 KB.

  • É altamente recomendável que você use um nome exclusivo para cada tarefa de exportação. Se você não usar um nome de tarefa exclusivo, poderá receber a seguinte mensagem de erro:

    ExportTaskAlreadyExistsFault: An error occurred (ExportTaskAlreadyExists) when calling the StartExportTask operation: The export task with the ID xxxxx already exists [ExportTaskAlreadyExistsFault: ocorreu um erro (ExportTaskAlreadyExists) ao chamar a operação StartExportTask: a tarefa de exportação com o ID xxxxx já existe].

  • Como algumas tabelas podem ser ignoradas, recomendamos que você verifique a contagem de linhas e tabelas nos dados após a exportação.

Convenção de nomenclatura de arquivos

Os dados exportados para tabelas específicas são armazenados no formato base_prefix/files, onde o prefixo base é o seguinte:

export_identifier/database_name/schema_name.table_name/

Por exemplo:

export-1234567890123-459/rdststcluster/mycluster.DataInsert_7ADB5D19965123A2/

Os arquivos de saída usam a seguinte convenção de nomenclatura, em que partition_index é alfanumérico:

partition_index/part-00000-random_uuid.format-based_extension

Por exemplo:

1/part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet a/part-00000-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet

A convenção de nomenclatura de arquivos está sujeita a alterações. Portanto, ao ler as tabelas de destino, recomendamos que você leia tudo dentro do prefixo base para a tabela.

Formato de conversão e armazenamento de dados

Ao exportar um cluster de banco de dados para um bucket do Amazon S3, o Amazon Aurora converte, exporta e armazena os dados no formato Parquet. Para ter mais informações, consulte Conversão de dados ao exportar para um bucket do Amazon S3.