Bewährte Methoden für den Import aus Amazon S3 in DynamoDB - Amazon-DynamoDB

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Bewährte Methoden für den Import aus Amazon S3 in DynamoDB

Im Folgenden werden die bewährten Methoden für den Import aus Amazon S3 in DynamoDB vorgestellt.

Bleiben Sie unter dem Limit von 50.000 S3-Objekten

Jeder Importauftrag unterstützt maximal 50.000 S3-Objekte. Wenn Ihr Datensatz mehr als 50.000 Objekte enthält, sollten Sie erwägen, sie zu größeren Objekten zu konsolidieren.

Übermäßig große S3-Objekte vermeiden

S3-Objekte werden parallel importiert. Wenn Sie über viele mittelgroße S3-Objekte verfügen, ist eine parallele Ausführung ohne übermäßigen Overhead möglich. Bei Elementen unter 1 KB sollten Sie 4 000 000 Elemente in jedem S3-Objekt platzieren. Wenn Sie eine größere durchschnittliche Elementgröße haben, platzieren Sie proportional weniger Elemente in jedem S3-Objekt.

Sortierte Daten randomisieren

Wenn ein S3-Objekt Daten in sortierter Reihenfolge enthält, kann es eine fortlaufende Hot-Partition erstellen. In diesem Fall empfängt eine Partition die gesamte Aktivität, danach die nächste Partition usw. Daten in sortierter Reihenfolge sind aufeinanderfolgende Elemente im S3-Objekt, die während des Imports auf dieselbe Zielpartition geschrieben werden. Ein typischer Fall, in dem Daten in sortierter Reihenfolge vorliegen, ist eine CSV-Datei, in der Elemente nach Partitionsschlüssel sortiert werden, sodass wiederholte Elemente denselben Partitionsschlüssel aufweisen.

Zum Vermeiden einer fortlaufenden Hot-Partition empfehlen wir, die Reihenfolge in diesen Fällen zu randomisieren. Dies kann die Leistung verbessern, indem die Schreiboperationen verteilt werden. Weitere Informationen finden Sie unter Effizientes Verteilen der Schreibaktivität beim Datenupload in DynamoDB.

Daten komprimieren, damit die Gesamtgröße der S3-Objekte das regionale Limit nicht überschreitet

Beim Import aus S3 gibt es ein Limit für die Gesamtgröße der S3-Objektdaten, die importiert werden sollen. Das Limit liegt in den Regionen us-east-1, us-west-2 und eu-west-1 bei 15 TB und in allen anderen Regionen bei 1 TB. Das Limit basiert auf den Rohgrößen von S3-Objekten.

Durch eine Komprimierung kann das Limit mehr Rohdaten umfassen. Wenn die Komprimierung allein nicht ausreicht, damit der Import innerhalb des Limits liegt, können Sie beim AWS Premium Support eine Kontingenterhöhung beantragen.

Die Auswirkungen der Elementgröße auf die Leistung kennen

Wenn die durchschnittliche Elementgröße sehr klein ist (unter 200 Byte), kann der Import etwas länger dauern als bei größeren Elementgrößen.

Den Import ohne globale sekundäre Indizes in Betracht ziehen

Die Dauer eines Importauftrags kann davon abhängen, ob ein oder mehrere globale sekundäre Indizes (GSIs) vorhanden sind. Wenn Sie Indizes mit Partitionsschlüsseln erstellen möchten, die eine geringe Kardinalität aufweisen, können Sie den Import möglicherweise beschleunigen, indem Sie die Indexerstellung aufschieben, bis der Importauftrag abgeschlossen ist (anstatt sie in den Importauftrag einzubeziehen).

Anmerkung

Für die Erstellung eines GSI während des Imports fallen keine Schreibgebühren an (für die Erstellung eines GSI nach dem Import hingegen schon).