Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Bewährte Methoden für den Import aus Amazon S3 in DynamoDB

Fokusmodus
Bewährte Methoden für den Import aus Amazon S3 in DynamoDB - Amazon-DynamoDB

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Im Folgenden werden die bewährten Methoden für den Import aus Amazon S3 in DynamoDB vorgestellt.

Bleiben Sie unter dem Limit von 50.000 S3-Objekten

Jeder Importauftrag unterstützt maximal 50.000 S3-Objekte. Wenn Ihr Datensatz mehr als 50.000 Objekte enthält, sollten Sie erwägen, sie zu größeren Objekten zu konsolidieren.

Übermäßig große S3-Objekte vermeiden

S3-Objekte werden parallel importiert. Wenn Sie über viele mittelgroße S3-Objekte verfügen, ist eine parallele Ausführung ohne übermäßigen Overhead möglich. Bei Elementen unter 1 KB sollten Sie 4 000 000 Elemente in jedem S3-Objekt platzieren. Wenn Sie eine größere durchschnittliche Elementgröße haben, platzieren Sie proportional weniger Elemente in jedem S3-Objekt.

Sortierte Daten randomisieren

Wenn ein S3-Objekt Daten in sortierter Reihenfolge enthält, kann es eine fortlaufende Hot-Partition erstellen. In diesem Fall empfängt eine Partition die gesamte Aktivität, danach die nächste Partition usw. Daten in sortierter Reihenfolge sind aufeinanderfolgende Elemente im S3-Objekt, die während des Imports auf dieselbe Zielpartition geschrieben werden. Ein typischer Fall, in dem Daten in sortierter Reihenfolge vorliegen, ist eine CSV-Datei, in der Elemente nach Partitionsschlüssel sortiert werden, sodass wiederholte Elemente denselben Partitionsschlüssel aufweisen.

Zum Vermeiden einer fortlaufenden Hot-Partition empfehlen wir, die Reihenfolge in diesen Fällen zu randomisieren. Dies kann die Leistung verbessern, indem die Schreiboperationen verteilt werden. Weitere Informationen finden Sie unter Effizientes Verteilen der Schreibaktivität beim Datenupload in DynamoDB.

Daten komprimieren, damit die Gesamtgröße der S3-Objekte das regionale Limit nicht überschreitet

Beim Import aus S3 gibt es ein Limit für die Gesamtgröße der S3-Objektdaten, die importiert werden sollen. Das Limit liegt in den Regionen us-east-1, us-west-2 und eu-west-1 bei 15 TB und in allen anderen Regionen bei 1 TB. Das Limit basiert auf den Rohgrößen von S3-Objekten.

Durch eine Komprimierung kann das Limit mehr Rohdaten umfassen. Wenn die Komprimierung allein nicht ausreicht, damit der Import innerhalb des Limits liegt, können Sie beim AWS Premium Support eine Kontingenterhöhung beantragen.

Die Auswirkungen der Elementgröße auf die Leistung kennen

Wenn die durchschnittliche Elementgröße sehr klein ist (unter 200 Byte), kann der Import etwas länger dauern als bei größeren Elementgrößen.

Den Import ohne globale sekundäre Indizes in Betracht ziehen

Die Dauer einer Importaufgabe kann vom Vorhandensein eines oder mehrerer globaler sekundärer Indizes () GSIs abhängen. Wenn Sie Indizes mit Partitionsschlüsseln erstellen möchten, die eine geringe Kardinalität aufweisen, können Sie den Import möglicherweise beschleunigen, indem Sie die Indexerstellung aufschieben, bis der Importauftrag abgeschlossen ist (anstatt sie in den Importauftrag einzubeziehen).

Anmerkung

Für die Erstellung eines GSI während des Imports fallen keine Schreibgebühren an (für die Erstellung eines GSI nach dem Import hingegen schon).

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.