Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Best practice per l'importazione da Amazon S3 in DynamoDB
Di seguito sono elencate le best practice per eseguire l'importazione dei dati da Amazon S3 in DynamoDB.
Resta al di sotto del limite di 50.000 oggetti S3
Ogni processo di importazione supporta un massimo di 50.000 oggetti S3. Se il set di dati contiene più di 50.000 oggetti, valuta la possibilità di consolidarli in oggetti più grandi.
Evitare oggetti S3 eccessivamente grandi
Gli oggetti S3 vengono importati in parallelo. La presenza di numerosi oggetti S3 di medie dimensioni consente l'esecuzione parallela senza sovraccarichi eccessivi. Per gli articoli inferiori a 1 KB, considera che puoi inserire 4.000.000 elementi in ogni oggetto S3. Se la dimensione media degli elementi è maggiore, inserisci proporzionalmente meno elementi in ogni oggetto S3.
Randomizzare i dati ordinati
Se un oggetto S3 contiene i dati disposti secondo un ordinamento, può creare una partizione hot di implementazione, ossia la situazione in cui tutta l'attività viene ricevuta da una partizione, quindi dalla partizione successiva e così via. I dati ordinati sono definiti come elementi in sequenza nell'oggetto S3 che vengono scritti nella stessa partizione di destinazione durante l'importazione. Una situazione comune di dati ordinati è un file CSV in cui gli elementi sono ordinati per chiave di partizione in modo che gli elementi ripetuti condividano la stessa chiave di partizione.
Per evitare una partizione hot di implementazione, in questi casi si consiglia di randomizzare l'ordine. In tal modo si possono migliorare le prestazioni tramite la distribuzione delle operazioni di scrittura. Per ulteriori informazioni, consulta Distribuzione efficiente dell'attività di scrittura durante il caricamento dei dati in DynamoDB.
Comprimere i dati per mantenere la dimensione totale dell'oggetto S3 al di sotto del limite regionale
Nel processo di importazione da S3 esiste un limite per la dimensione totale dei dati dell'oggetto S3 da importare. Il limite è di 15 TB nelle regioni us-east-1, us-west-2 ed eu-west-1 e di 1 TB in tutte le altre regioni. Il limite si basa sulle dimensioni degli oggetti S3 non elaborati.
La compressione consente di far rientrare nel limite un numero maggiore di dati non elaborati. Se la compressione da sola non è sufficiente a far rientrare l'importazione entro il limite, puoi anche contattare il Supporto AWS Premium
Essere consapevoli di come le dimensioni degli articoli influiscono sulle prestazioni
Se la dimensione media degli elementi è molto piccola (inferiore a 200 byte), il processo di importazione potrebbe richiedere più di tempo rispetto agli elementi di dimensioni maggiori.
Prendere in considerazione l'importazione senza indici secondari globali
La durata di un'operazione di importazione può dipendere dalla presenza di uno o più indici secondari globali (GSI). Se intendi creare indici con chiavi di partizione a bassa cardinalità, è possibile accelerare l'importazione se rimandi la creazione dell'indice al termine dell'operazione di importazione (anziché includerla nel processo di importazione).
Nota
La creazione di un GSI durante l'importazione non comporta costi di scrittura, al contrario della creazione di un GSI dopo l'importazione.