Considerações sobre exportações do cluster de banco de dados
Use as seções a seguir para saber sobre as limitações, as convenções de nomenclatura de arquivos, além da conversão e do armazenamento de dados ao exportar dados do cluster de banco de dados para o Amazon S3.
Limitações
A exportação de dados de cluster de banco de dados para o Amazon S3 apresenta as seguintes limitações:
-
Não é possível executar várias tarefas de exportação para o mesmo cluster de banco de dados simultaneamente. Isso se aplica a exportações totais e parciais.
-
Você pode ter até cinco tarefas de exportação de snapshot de banco de dados simultâneas em andamento por Conta da AWS.
-
Os clusters de banco de dados do Aurora Serverless v1 não são compatíveis com exportações para o S3.
-
O Aurora MySQL e o Aurora PostgreSQL são compatíveis com exportações para o S3 somente para o modo de mecanismo provisionado.
-
As exportações para o S3 não são compatíveis com prefixos do S3 contendo dois pontos (:).
-
Os seguintes caracteres no caminho do arquivo do S3 são convertidos em sublinhados (_) durante a exportação:
\ ` " (space)
-
Se um banco de dados, esquema ou tabela tiver caracteres em seu nome diferentes dos a seguir, a exportação parcial não será aceita. No entanto, você pode exportar o cluster de banco de dados inteiro.
-
Letras latinas (A–Z)
-
Dígitos (0–9)
-
Símbolo do dólar ($)
-
Sublinhado (_)
-
-
Espaços ( ) e alguns caracteres não são compatíveis em nomes de colunas de tabelas de banco de dados. As tabelas com os seguintes caracteres em nomes de colunas são ignoradas durante a exportação:
, ; { } ( ) \n \t = (space)
-
As tabelas com barras (/) em seus nomes são ignoradas durante a exportação.
-
As tabelas temporárias e não registradas do Aurora PostgreSQL são ignoradas durante a exportação.
-
Se os dados contiverem um objeto grande, como um BLOB ou um CLOB, com tamanho próximo ou superior a 500 MB, ocorrerá uma falha na exportação.
-
Se uma tabela contiver uma linha grande próxima ou maior que 2 GB, a tabela será ignorada durante a exportação.
-
Em relação a exportações parciais, a lista
ExportOnly
tem um tamanho máximo de 200 KB. -
É altamente recomendável que você use um nome exclusivo para cada tarefa de exportação. Se você não usar um nome de tarefa exclusivo, poderá receber a seguinte mensagem de erro:
ExportTaskAlreadyExistsFault: An error occurred (ExportTaskAlreadyExists) when calling the StartExportTask operation: The export task with the ID
[ExportTaskAlreadyExistsFault: ocorreu um erro (ExportTaskAlreadyExists) ao chamar a operação StartExportTask: a tarefa de exportação com o ID xxxxx já existe].xxxxx
already exists -
Como algumas tabelas podem ser ignoradas, recomendamos que você verifique a contagem de linhas e tabelas nos dados após a exportação.
Convenção de nomenclatura de arquivos
Os dados exportados para tabelas específicas são armazenados no formato
, onde o prefixo base é o seguinte:base_prefix
/files
export_identifier
/database_name
/schema_name
.table_name
/
Por exemplo:
export-1234567890123-459/rdststcluster/mycluster.DataInsert_7ADB5D19965123A2/
Os arquivos de saída usam a seguinte convenção de nomenclatura, em que partition_index
é alfanumérico:
partition_index
/part-00000-random_uuid
.format-based_extension
Por exemplo:
1/part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet a/part-00000-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet
A convenção de nomenclatura de arquivos está sujeita a alterações. Portanto, ao ler as tabelas de destino, recomendamos que você leia tudo dentro do prefixo base para a tabela.
Formato de conversão e armazenamento de dados
Ao exportar um cluster de banco de dados para um bucket do Amazon S3, o Amazon Aurora converte, exporta e armazena os dados no formato Parquet. Para ter mais informações, consulte Conversão de dados ao exportar para um bucket do Amazon S3.