Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Considerazioni per le esportazioni di cluster DB
Utilizza le seguenti sezioni per conoscere le limitazioni, le convenzioni di denominazione dei file e la conversione e lo storage dei dati durante l'esportazione di dati di cluster DB in Amazon S3.
Argomenti
Limitazioni
L'esportazione dei dati del cluster database in Amazon S3 presenta le seguenti limitazioni:
-
Non è possibile eseguire contemporaneamente più attività di esportazione per lo stesso cluster database. Ciò è valido sia per le esportazioni totali sia per le esportazioni parziali.
-
Puoi avere in corso fino a cinque attività simultanee di esportazione di snapshot DB per Account AWS.
-
Aurora Serverless v1 I cluster DB non supportano le esportazioni verso S3.
-
Aurora My e SQL Aurora Postgre SQL supportano le esportazioni verso S3 solo per la modalità motore fornita.
-
Le esportazioni verso S3 non supportano i prefissi S3 contenenti i due punti (:).
-
I seguenti caratteri nel percorso del file S3 vengono convertiti in caratteri di sottolineatura (_) durante l'esportazione:
\ ` " (space)
-
Se un database, uno schema o una tabella contiene caratteri diversi da quelli riportati di seguito, l'esportazione parziale non è supportata. Tuttavia, è possibile esportare l'intero cluster database.
-
Lettere latine (A–Z)
-
Numeri (0–9)
-
Simbolo del dollaro ($)
-
Carattere di sottolineatura (_)
-
-
Gli spazi ( ) e alcuni caratteri non sono supportati nei nomi delle colonne delle tabelle del database. Le tabelle con i seguenti caratteri nei nomi delle colonne vengono ignorate durante l'esportazione:
, ; { } ( ) \n \t = (space)
-
Le tabelle con barre (/) nei rispettivi nomi vengono ignorate durante l'esportazione.
-
Le tabelle SQL temporanee e non registrate di Aurora Postgre vengono ignorate durante l'esportazione.
-
Se i dati contengono un oggetto di grandi dimensioni, ad esempio un BLOB oCLOB, che è vicino o superiore a 500 MB, l'esportazione non riesce.
-
Se una tabella contiene una riga di grandi dimensioni, vicine o superiori a 2 GB, la tabella viene ignorata durante l'esportazione.
-
Per le esportazioni parziali, l'
ExportOnly
elenco ha una dimensione massima di 200 KB. -
Si consiglia vivamente di utilizzare un nome univoco per ogni attività di esportazione. Se non utilizzi un nome di attività univoco, potresti ricevere il seguente messaggio di errore:
ExportTaskAlreadyExistsFault: Si è verificato un errore (ExportTaskAlreadyExists) durante la chiamata dell' StartExportTaskoperazione: L'operazione di esportazione con l'ID
xxxxx
esiste già. -
Poiché alcune tabelle potrebbero essere ignorate, ti consigliamo di verificare il numero di righe e tabelle nei dati dopo l'esportazione.
Convenzione di denominazione file
I dati esportati per tabelle specifiche vengono memorizzati nel formato
, dove il prefisso di base è il seguente:base_prefix
/files
export_identifier
/database_name
/schema_name
.table_name
/
Per esempio:
export-1234567890123-459/rdststcluster/mycluster.DataInsert_7ADB5D19965123A2/
I file di output utilizzano la seguente convenzione di denominazione, dove partition_index
è alfanumerico:
partition_index
/part-00000-random_uuid
.format-based_extension
Per esempio:
1/part-00000-c5a881bb-58ff-4ee6-1111-b41ecff340a3-c000.gz.parquet a/part-00000-d7a881cc-88cc-5ab7-2222-c41ecab340a4-c000.gz.parquet
La convenzione di denominazione file è soggetta a modifiche. Pertanto, quando usi le tabelle di destinazione ti consigliamo di leggere tutto quanto riportato all'interno del prefisso di base della tabella.
Formato di conversione e archiviazione dei dati
Quando esporti un cluster DB in un bucket Amazon S3, Amazon Aurora converte, esporta e archivia i dati nel formato Parquet. Per ulteriori informazioni, consulta Conversione dei dati durante l'esportazione in un bucket Simple Storage Service (Amazon S3).