Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Service-, Konto- und Tabellenkontingente in Amazon DynamoDB

Fokusmodus
Service-, Konto- und Tabellenkontingente in Amazon DynamoDB - Amazon-DynamoDB

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

In diesem Abschnitt werden die aktuellen Kontingente – früher als Grenzwerte bezeichnet – in Amazon DynamoDB beschrieben. Jedes Kontingent gilt pro Region, sofern nicht anders angegeben.

Lese-/Schreibkapazitätsmodus und Durchsatz

Sie können Tabellen jederzeit vom On-Demand-Modus in den Modus mit bereitgestellter Kapazität wechseln. Wenn Sie mehrfach zwischen den Kapazitätsmodi wechseln, gelten die folgenden Bedingungen:

  • Sie können eine neu erstellte Tabelle jederzeit im On-Demand-Modus in den Modus für bereitgestellte Kapazität umschalten. Sie können sie jedoch erst 24 Stunden nach dem Erstellungszeitstempel der Tabelle wieder in den On-Demand-Modus zurückschalten.

  • Sie können eine bestehende Tabelle im On-Demand-Modus jederzeit in den Modus für bereitgestellte Kapazität umschalten. Sie können sie jedoch erst 24 Stunden nach dem letzten Zeitstempel, der auf einen Wechsel zum On-Demand-Modus hinweist, wieder in den On-Demand-Modus zurückschalten.

Weitere Informationen zum Umschalten zwischen Lese- und Schreibkapazitätsmodus finden Sie unterÜberlegungen beim Wechseln der Kapazitätsmodi in DynamoDB.

Kapazitätseinheitsgrößen (für Tabellen mit bereitgestellter Kapazität)

Eine Lesekapazitätseinheit entspricht einem Strongly-Consistent-Lesevorgang pro Sekunde oder zwei Eventually-Consistent-Lesevorgängen pro Sekunde für Elemente mit einer Größe von bis zu 4 KB.

Eine Schreibkapazitätseinheit entspricht einem Schreibvorgang pro Sekunde für Elemente mit einer Größe von bis zu 1 KB.

Transactional-Leseanforderungen benötigen zwei Lesekapazitätseinheiten, um einen Lesevorgang pro Sekunde für Elemente mit einer Größe bis zu 4 KB durchzuführen.

Transaktionelle Schreibforderungen benötigen zwei Schreibkapazitätseinheiten, um einen Schreibvorgang pro Sekunde für Elemente mit einer Größe bis zu 1 KB durchzuführen.

Anforderungseinheitengrößen (für On-Demand-Tabellen)

Eine Leseanforderungseinheit entspricht einem strikt konsistenten Lesevorgang pro Sekunde oder zwei letztendlich konsistenten Lesevorgängen pro Sekunde für Elemente mit einer Größe von bis zu 4 KB.

Eine Schreibanforderungseinheit entspricht einem Schreibvorgang pro Sekunde für Elemente mit einer Größe von bis zu 1 KB.

Transaktionale Leseanforderungen benötigen zwei Leseanforderungseinheiten, um einen Lesevorgang pro Sekunde für Elemente mit einer Größe bis zu 4 KB durchführen zu können.

Transaktionale Schreibanforderungen benötigen zwei Schreibanforderungseinheiten, um einen Schreibvorgang pro Sekunde für Elemente mit einer Größe bis zu 1 KB durchführen zu können.

Standardkontingente für den Durchsatz

AWS legt einige Standardkontingente für den Durchsatz fest, den Ihr Konto innerhalb einer Region bereitstellen und nutzen kann.

Die Kontingente für den Lese- und den Schreibdurchsatz auf Kontoebene werden auf Kontoebene angewendet. Diese Kontingente auf Kontoebene gelten für die Summe der bereitgestellten Durchsatzkapazität für alle Tabellen und globalen sekundären Indizes Ihres Kontos in einer bestimmten Region. Der gesamte verfügbare Durchsatz des Kontos kann für eine einzige Tabelle oder für mehrere Tabellen bereitgestellt werden. Diese Kontingente gelten nur für Tabellen, die den Modus für bereitgestellte Kapazität verwenden.

Die Kontingente für den Lese- und den Schreibdurchsatz auf Tabellenebene gelten unterschiedlich für Tabellen, die den Modus mit bereitgestellter Kapazität verwenden, und Tabellen, die den Modus mit On-Demand-Kapazität verwenden.

Bei Tabellen mit bereitgestelltem Kapazitätsmodus und GSIs ist das Kontingent die maximale Anzahl an Lese- und Schreibkapazitätseinheiten, die für jede Tabelle oder jede Tabelle GSIs in der Region bereitgestellt werden können. Die Summe aller einzelnen Tabellen und ihrer Gesamtheit GSIs muss ebenfalls unter dem Kontingent für den Lese- und Schreibdurchsatz auf Kontoebene bleiben. Dies gilt zusätzlich zu der Anforderung, dass die Summe aller bereitgestellten Tabellen und ihrer Tabellen unter der Quote für den Lese- und Schreibdurchsatz auf Kontoebene bleiben GSIs muss.

Bei Tabellen und GSIs im On-Demand-Kapazitätsmodus entspricht das Kontingent auf Tabellenebene den maximalen Lese- und Schreibkapazitätseinheiten, die für jede Tabelle oder für jede einzelne Person in dieser Tabelle verfügbar sind. GSI Im On-Demand-Modus werden keine Kontingente für den Lese- und den Schreibdurchsatz auf Kontoebene auf Tabellen angewendet.

Im Folgenden sind die Durchsatzkontingente aufgeführt, die standardmäßig für Ihr Konto gelten.

Name des Durchsatzkontingents On-Demand Bereitgestellt Einstellbar

Per table

40,000 read request units and 40,000 write request units

40,000 read capacity units and 40,000 write capacity units

Ja

Per account

Not applicable

80,000 read capacity units and 80,000 write capacity units

Ja

Minimum throughput for any table or global secondary index

Not applicable

1 read capacity unit and 1 write capacity unit

Ja

Sie können die Konsole Service Quotas, die AWS APIund die verwenden, AWS CLIum bei Bedarf Kontingenterhöhungen für die anpassbaren Kontingente anzufordern.

Für Ihre Durchsatzkontingente auf Kontoebene können Sie die Service-Kontingents-Konsole, die AWS CloudWatch Konsole AWS APIund die verwenden, um CloudWatch Alarme AWS CLIzu erstellen und automatisch benachrichtigt zu werden, wenn Ihre aktuelle Nutzung einen bestimmten Prozentsatz Ihrer zugewiesenen Kontingentwerte erreicht. Mithilfe der Nutzung können CloudWatch Sie auch Ihre Nutzung überwachen, indem Sie sich die AccountProvisionedReadCapacityUnits AccountProvisionedWriteCapacityUnits AWS Nutzungskennzahlen ansehen. Weitere Informationen zu Nutzungsmetriken finden Sie unter AWS -Nutzungsmetriken.

Erhöhen oder Verringern des Durchsatzes (für Tabellen im Modus bereitgestellter Kapazität)

Erhöhen des bereitgestellten Durchsatzes

Sie können ReadCapacityUnits oder WriteCapacityUnits nach Bedarf mithilfe der AWS Management Console oder der Operation UpdateTable erhöhen. In einem einzigen Aufruf können Sie den bereitgestellten Durchsatz für eine Tabelle, für jeden globalen sekundären Index in dieser Tabelle oder für eine beliebige Kombination dieser Komponenten erhöhen. Die neuen Einstellungen werden erst wirksam, wenn die UpdateTable-Operation abgeschlossen ist.

Sie können die Kontingente pro Konto nicht überschreiten, wenn Sie bereitgestellte Kapazität hinzufügen. DynamoDB erlaubt nicht, die bereitgestellte Kapazität sehr schnell zu erhöhen. Abgesehen von diesen Einschränkungen können Sie die bereitgestellte Kapazität für Ihre Tabellen nach Bedarf erhöhen. Weitere Informationen zu diesen Kontingenten auf Kontoebene finden Sie im vorhergehenden Abschnitt, Standardkontingente für den Durchsatz.

Senken des bereitgestellten Durchsatzes

Für jede Tabelle und jeden globalen sekundären Index in einer UpdateTable-Operation können Sie ReadCapacityUnits oder WriteCapacityUnits (oder beide) reduzieren. Die neuen Einstellungen werden erst wirksam, wenn die UpdateTable-Operation abgeschlossen ist.

Es gibt ein Standardkontingent für die Anzahl der Abnahmen bereitgestellter Kapazität, die Sie pro Tag für Ihre DynamoDB-Tabelle ausführen können. Ein Tag ist gemäß der koordinierten Weltzeit (UTC) definiert. An einem bestimmten Tag können Sie damit beginnen, innerhalb einer Stunde bis zu vier Abnahmen auszuführen, solange Sie an diesem Tag noch keine weiteren Abnahmen ausgeführt haben. Anschließend können Sie eine weitere Senkung pro Stunde (einmal alle 60 Minuten) vornehmen. Dadurch wird die maximale Anzahl von Abnahmen an einem Tag effektiv auf das 27-fache erhöht.

Sie können die Service Quotas Quotas-Konsole, die AWS APIund die verwenden, AWS CLIum bei Bedarf Kontingenterhöhungen anzufordern.

Wichtig

Die Tabellen und die Limits für Verringerungen von globalen sekundären Indizes sind entkoppelt, sodass die globalen sekundären Indizes für eine bestimmte Tabelle ihre eigenen Limits für Verringerungen haben. Wenn jedoch eine einzelne Anforderung den Durchsatz für eine Tabelle und einen globalen sekundären Index verringert, wird dies abgelehnt, wenn das aktuelle Limit für einen davon überschritten wird. Anforderungen werden nicht teilweise verarbeitet.

Beispiel

Eine Tabelle mit einem globalen sekundären Index kann in den ersten 4 Stunden des Tages wie folgt geändert werden:

  • Die WriteCapacityUnits oder die ReadCapacityUnits (oder beide) der Tabelle können viermal verringert werden.

  • Die WriteCapacityUnits oder die ReadCapacityUnits (oder beide) des globalen sekundären Index können viermal verringert werden.

Am Ende eines Tages kann der Durchsatz der Tabelle und des globalen sekundären Index potentiell insgesamt jeweils 27 Mal verringert werden.

Reservierte Kapazität

AWS legt ein Standardkontingent für die Menge an aktiver reservierter Kapazität fest, die Ihr Konto erwerben kann. Das Kontingentlimit ist eine Kombination aus reservierter Kapazität für Schreibkapazitätseinheiten (WCUs) und Lesekapazitätseinheiten (RCUs).

Quote für reservierte Kapazität Aktive reservierte Kapazität Einstellbar

Pro Konto

1.000.000 bereitgestellte Kapazitätseinheiten (_) WCUs RCUs

Ja

Wenn Sie versuchen, mehr als 1.000.000 bereitgestellte Kapazitätseinheiten in einem einzigen Kauf zu erwerben, erhalten Sie eine Fehlermeldung aufgrund der Servicekontingentbeschränkung. Wenn Sie über aktive reservierte Kapazität verfügen und versuchen, zusätzliche reservierte Kapazität zu erwerben, was zu mehr als 1.000.000 aktiven bereitgestellten Kapazitätseinheiten führen würde, erhalten Sie eine Fehlermeldung aufgrund der Servicekontingentbeschränkung.

Wenn Sie reservierte Kapazität für mehr als 1.000.000 bereitgestellte Kapazitätseinheiten benötigen, können Sie eine Erhöhung des Kontingents beantragen, indem Sie eine Anfrage an Support senden.

Importkontingente

Der DynamoDB-Import aus Amazon S3 kann bis zu 50 gleichzeitige Importaufgaben mit einer Gesamtgröße von 15 TB gleichzeitig in den Regionen us-east-1, us-west-2 und eu-west-1 unterstützen. In allen anderen Regionen werden bis zu 50 gleichzeitige Importaufgaben mit einer Gesamtgröße von 1 TB unterstützt. Jeder Importauftrag kann bis zu 50.000 Amazon S3 S3-Objekte in allen Regionen umfassen. Weitere Informationen zum Importieren und Validieren finden Sie unter Importformatkontingente und Validierung.

Contributor Insights

Wenn Sie Customer Insights in Ihrer DynamoDB-Tabelle aktivieren, unterliegen Sie weiterhin den Regelbeschränkungen von Contributor Insights. Weitere Informationen finden Sie unter CloudWatch -Servicekontingente.

Tabellen

Tabellengröße

Es gibt praktisch kein Limit für die Tabellengröße. Tabellen sind in Bezug auf die Anzahl von Elementen oder die Anzahl von Bytes unbeschränkt.

Maximale Anzahl von Tabellen pro Konto und Region

Für jedes AWS Konto gibt es ein anfängliches Kontingent von 2.500 Tabellen pro Region. AWS

Wenn Sie mehr als 2 500 Tabellen für ein einzelnes Konto benötigen, wenden Sie sich bitte an Ihr AWS -Kontoteam, um eine Erhöhung auf maximal 10 000 Tabellen zu prüfen. Bei mehr als 10 000 Tabellen wird empfohlen, mehrere Konten einzurichten, von denen jedes bis zu 10 000 Tabellen bearbeiten kann.

Sie können die Konsole Service Quotas, die AWS APIund die verwenden, verwenden, AWS CLIum die Standardkontingentwerte und die angewendeten Kontingentwerte für die maximale Anzahl von Tabellen in Ihrem Konto anzuzeigen und bei Bedarf Kontingenterhöhungen anzufordern. Sie können Kontingenterhöhungen auch beantragen, indem Sie ein Ticket an den AWS -Support senden.

Mithilfe der Servicekontingenten-Konsole können AWS CLISie CloudWatch Alarme erstellen, um automatisch benachrichtigt zu werden, wenn Ihre aktuelle Nutzung einen bestimmten Prozentsatz Ihres aktuellen Kontingents erreicht. AWS API Mithilfe der Nutzung können CloudWatch Sie Ihre Nutzung auch anhand der TableCount AWS Nutzungsmetriken überwachen. Weitere Informationen zu Nutzungsmetriken finden Sie unter AWS -Nutzungsmetriken.

Globale Tabellen

AWS legt einige Standardkontingente für den Durchsatz fest, den Sie bereitstellen oder nutzen können, wenn Sie globale Tabellen verwenden.

Standardmäßige globale Tabellenkontingente On-Demand Bereitgestellt

Per table

40,000 read request units and 40,000 write request units

40,000 read capacity units and 40,000 write capacity units

Per table, per destination Region, per day

10 TB for all source tables to which a replica was added for this destination Region

10 TB for all source tables to which a replica was added for this destination Region

Transaktionsoperationen bieten Atomarität, Konsistenz, Isolierung und Dauerhaftigkeit (ACID) nur innerhalb der AWS Region, in der der Schreibvorgang ursprünglich vorgenommen wurde. Regionsübergreifende Transaktionen werden in globalen Tabellen nicht unterstützt. Angenommen, Sie haben eine globale Tabelle mit Replikaten in den Regionen USA Ost (Ohio) und USA West (Oregon) und führen einen TransactWriteItems Vorgang in der Region USA Ost (Nord-Virginia) durch. In diesem Fall können sind möglicherweise teilweise abgeschlossene Transaktionen in der Region USA West (Oregon) zu beobachten, während Änderungen repliziert werden. Die Änderungen werden erst dann in die anderen Regionen repliziert, nachdem sie in der Quellregion in die Datenbank eingetragen wurden.

Anmerkung

Es kann vorkommen, dass Sie eine Erhöhung des Kontingentlimits beantragen müssen. AWS -Support Wenn einer der folgenden Punkte auf Sie zutrifft, wenden Sie sich bitte an https://aws.amazon.com/support:

  • Wenn Sie ein Replikat für eine Tabelle hinzufügen, die für die Verwendung von mehr als 40.000 Schreibkapazitätseinheiten (WCU) konfiguriert ist, müssen Sie eine Erhöhung des Servicekontingents für Ihr Kontingent zum Hinzufügen von WCU Replikaten beantragen.

  • Wenn Sie innerhalb eines Zeitraums von 24 Stunden ein Replikat oder Replikate zu einer Zielregion mit einer kombinierten Summe von mehr als 10 TB hinzufügen, müssen Sie eine Erhöhung des Servicekontingents für das Backfill-Kontingent zum Hinzufügen von Replikaten anfordern.

  • Wenn Sie eine Fehlermeldung erhalten, die etwa wie folgt lautet:

    • Es kann kein Replikat der Tabelle 'example_table' in der Region 'example_region_A' erstellt werden, da damit Ihr aktuelles Kontolimit in der Region 'example_region_B' überschritten wird.

Sekundäre Indexe

Sekundäre Indizes pro Tabelle

Sie können maximal 5 lokale sekundäre Indizes definieren.

Pro Tabelle besteht ein Standardkontingent von 20 globalen sekundären Indizes. Sie können die Service-Kontingents-Konsole, die AWS APIund die verwenden, AWS CLIum die globalen Sekundärindizes pro Tabelle, die Standard- und die aktuellen Kontingente zu überprüfen, die für Ihr Konto gelten, und bei Bedarf Kontingenterhöhungen zu beantragen. Sie können auch eine Erhöhung der Kontingente beantragen, indem Sie ein Ticket an https://aws.amazon.com/support senden.

Sie können nur einen globalen sekundären Index pro UpdateTable-Operation erstellen oder löschen.

Projizierte sekundäre Indexattribute pro Tabelle

Sie können insgesamt bis zu 100 Attribute in alle lokalen und globalen sekundären Indizes einer Tabelle projizieren. Dies gilt nur für vom Benutzer angegebene, projizierte Attribute.

Wenn Sie in einer CreateTable-Operation für ProjectionType von INCLUDE angeben, darf die Gesamtanzahl von in NonKeyAttributes angegebenen Attributen, die sich aus der Summe aller sekundären Indizes ergibt, 100 nicht überschreiten. Wenn Sie denselben Attributnamen in zwei verschiedene Indizes projizieren, werden beim Ermitteln der Gesamtanzahl zwei unterschiedliche Attribute gezählt.

Dieses Limit gilt nicht für sekundäre Indizes mit dem ProjectionType KEYS_ONLY oder ALL.

Partitions- und Sortierschlüssel

Partitionsschlüssellänge

Die Mindestlänge eines Partitionsschlüsselwerts beträgt 1 Byte. Die maximale Länge beträgt 2 048 Byte.

Partitionsschlüsselwerte

Es gibt praktisch keine Einschränkung in Bezug auf die Anzahl von eindeutigen Partitionsschlüsselwerten, weder für Tabellen noch für sekundäre Indizes.

Sortierschlüssellänge

Die Mindestlänge eines Sortierschlüsselwerts beträgt 1 Byte. Die maximale Länge beträgt 1 024 Byte.

Sortierschlüsselwerte

Im Prinzip gibt es praktisch keine Einschränkung in Bezug auf die Anzahl von eindeutigen Sortierschlüsselwerten pro Partitionsschlüsselwert.

Eine Ausnahme bilden Tabellen mit sekundären Indizes. Eine Elementauflistung ist ein Satz von Elementen, die als Partitionsschlüsselattribut den gleichen Wert haben. In einem globalen sekundären Index ist die Elementauflistung unabhängig von der Basistabelle (und kann ein anderes Partitionsschlüsselattribut haben). In einem lokalen sekundären Index befindet sich die indizierte Ansicht jedoch in derselben Partition (Co-Location) wie das Element in der Tabelle und verwendet dasselbe Partitionsschlüsselattribut. Aufgrund dieser Lokalität kann die Elementsammlung nicht auf mehrere Partitionen verteilt werdenLSIs, wenn eine Tabelle über eine oder mehrere Partitionen verfügt.

Bei einer Tabelle mit einer oder mehreren LSIs Elementen dürfen Elementsammlungen eine Größe von 10 GB nicht überschreiten. Dazu gehören alle Elemente der Basistabelle und alle projizierten LSI Ansichten, die denselben Wert des Partitionsschlüsselattributs haben. 10 GB ist die maximale Größe einer Partition. Detailliertere Informationen erhalten Sie unter Größenlimit der Elementauflistung.

Benennungsregeln

Tabellennamen und sekundäre Indexnamen

Namen für Tabellen und sekundäre Indizes müssen mindestens 3 Zeichen und dürfen höchstens 255 Zeichen lang sein. Es sind die folgenden Zeichen zulässig:

  • A-Z

  • a-z

  • 0-9

  • _ (Unterstrich)

  • - (Bindestrich)

  • . (Punkt)

Attributnamen

Im Allgemeinen muss ein Attributname mindestens ein Zeichen lang sein und darf nicht größer als 64 KB sein.

Dabei gibt es die folgenden Ausnahmen. Diese Attributnamen dürfen maximal 255 Zeichen lang sein:

  • Partitionsschlüsselnamen des Sekundärindexes

  • Sortierschlüsselnamen des Sekundärindexes

  • Die Namen aller vom Benutzer angegebenen, projizierten Attribute (gilt nur für lokale sekundäre Indizes). Wenn Sie in einer CreateTable-Operation den ProjectionType INCLUDE angeben, sind die Namen der Attribute des Parameters NonKeyAttributes längenbeschränkt. Die Projektionstypen KEYS_ONLY und ALL sind nicht betroffen.

Diese Attributnamen müssen mit UTF -8 codiert werden, und die Gesamtgröße jedes Namens (nach der Kodierung) darf 255 Byte nicht überschreiten.

Datentypen

String

Die Länge einer Zeichenfolge wird durch die maximale Elementgröße 400 KB beschränkt.

Zeichenketten sind Unicode-Zeichen mit der UTF Binärkodierung -8. Da es sich bei UTF -8 um eine Kodierung mit variabler Breite handelt, bestimmt DynamoDB die Länge eines Strings anhand seiner UTF -8 Byte.

Zahl

Eine Zahl kann bis zu 38 Nachkommastellen besitzen und positiv, negativ oder null sein.

  • Positiver Bereich: 1E-130 bis 9.9999999999999999999999999999999999999E+125

  • Negativer Bereich: -9.9999999999999999999999999999999999999E+125 bis -1E-130

DynamoDB verwendet JSON Zeichenfolgen, um Zahlendaten in Anfragen und Antworten darzustellen. Weitere Informationen finden Sie unter DynamoDB auf niedriger Ebene API.

Wenn die Zahlengenauigkeit wichtig ist, sollten Sie Zahlen mithilfe von Zeichenfolgen, die Sie aus einem Number-Datentyp konvertieren, an DynamoDB übergeben.

Binär

Die Länge eines binären Werts wird durch die maximale Elementgröße 400 KB beschränkt.

Anwendungen, die binäre Attribute verwenden, müssen die Daten vor dem Senden an DynamoDB im base64-Format kodieren. Nach dem Empfang der Daten dekodiert DynamoDB sie in ein nicht signiertes Byte-Array und verwendet dieses Array für die Länge der Attribute.

Items

Elementgröße

Die maximale Elementgröße in DynamoDB beträgt 400 KB, was sowohl die binäre Länge des Attributnamens (UTF-8 Länge) als auch die Länge der Attributwerte (wiederum binäre Länge) umfasst. Der Attributname wird bei der Größenbeschränkung mit eingerechnet.

Betrachten wir ein Element mit zwei Attributen als Beispiel: ein Attribut mit dem Namen „Shirtfarbe“ und dem Wert „R“ und ein weiteres Attribut mit dem Namen „Shirtgröße“ und dem Wert „M“. Die Gesamtgröße dieses Elements ist 23 Byte.

Elementgröße für Tabellen mit lokalen sekundären Indizes

Für jeden lokalen sekundären Index in einer Tabelle gilt ein Limit von 400 KB im Hinblick auf die Summe folgender Werte:

  • Die Größe der Daten eines Elements in der Tabelle.

  • Die Größe der entsprechenden Einträge (einschließlich der Schlüsselwerte und projizierten Attribute) in allen lokalen sekundären Indizes.

Attribute

Attribut-Namen-Wert-Paare pro Element

Die Gesamtgröße von Attributen pro Element muss der maximalen DynamoDB-Elementgröße (400 KB) entsprechen.

Anzahl der Werte in einer Liste, einer Zuordnung oder einem Satz

Es gibt keine Beschränkungen in Bezug auf die Anzahl der Werte in einer Liste, einer Zuordnung oder einem Satz, solange das Element, das die Werte enthält, das Limit der Elementgröße von 400 KB einhält.

Attributwerte

Leere Zeichenfolgen- und Binär-Attributwerte sind zulässig, wenn das Attribut nicht als Schlüsselattribut für eine Tabelle oder einen Index verwendet wird. Leere Zeichenfolgen- und Binärwerte sind innerhalb der Mengen, Listen und Zuordnungen zulässig. Ein Attributwert kann kein leerer Satz sein (Zeichenfolgensatz, Zahlensatz und Binärzahlensatz). Leere Listen und Zuordnungen sind jedoch zulässig.

Verschachtelte Attributtiefe

DynamoDB unterstützt bis zu 32 Ebenen verschachtelter Attribute.

Ausdrucksparameter

Ausdrucksparameter umfassen ProjectionExpression, ConditionExpression, UpdateExpression und FilterExpression.

Länge

Die maximale Länge der Ausdruckszeichenfolge ist 4 KB. Die Größe von ConditionExpression a=b beträgt z. B. 3 Byte.

Die maximale Länge jedes einzelnen Ausdrucksattributnamens oder Ausdrucksattributwerts beträgt 255 Byte. #name ist beispielsweise 5 Byte lang; :val 4 Byte.

Die maximale Länge aller Substitutionsvariablen in einem Ausdruck beträgt 2 MB. Dies ist die Summe der Längen aller ExpressionAttributeNames und ExpressionAttributeValues.

Operatoren und Operanden

Die maximale Anzahl von in UpdateExpression zulässigen Operatoren oder Funktionen ist 300. Zum Beispiel UpdateExpressionSET a = :val1 + :val2 + :val3enthält der zwei "" + -Operatoren.

Die maximale Anzahl von Operanden für den Vergleichsoperator IN ist 100.

Reservierte Wörter

DynamoDB verhindert nicht, dass Namen verwendet werden, die mit reservierten Wörtern in Konflikt stehen. (Eine vollständige Liste finden Sie unter Reservierte Wörter in DynamoDB.)

Wenn Sie jedoch ein reserviertes Wort in einem Ausdrucksparameter verwenden, müssen Sie auch ExpressionAttributeNames angeben. Weitere Informationen finden Sie unter Namen von Ausdrucksattributen (Aliase) in DynamoDB.

DynamoDB-Transaktionen

APIDynamoDB-Transaktionsoperationen haben die folgenden Einschränkungen:

  • Eine Transaktion darf nicht mehr als 100 eindeutige Elemente enthalten.

  • Eine Transaktion darf nicht mehr als 4 MB Daten enthalten.

  • Zwei Aktionen gleichzeitig dürfen nicht auf dasselbe Element in der derselben Tabelle einwirken. Beispielsweise können ConditionCheck und Update in einer Transaktion nicht beide auf dasselbe Element abzielen.

  • Eine Transaktion kann nicht für Tabellen in mehr als einem Konto oder einer AWS Region ausgeführt werden.

  • Transaktionsoperationen bieten Atomarität, Konsistenz, Isolierung und Dauerhaftigkeit (ACID) nur innerhalb der AWS Region, in der der Schreibvorgang ursprünglich vorgenommen wurde. Regionsübergreifende Transaktionen werden in globalen Tabellen nicht unterstützt. Angenommen, Sie haben eine globale Tabelle mit Replikaten in den Regionen USA Ost (Ohio) und USA West (Oregon) und Sie führen einen TransactWriteItems-Vorgang in der Region USA Ost (Nord-Virginia) aus. In diesem Fall können sind möglicherweise teilweise abgeschlossene Transaktionen in der Region USA West (Oregon) zu beobachten, während Änderungen repliziert werden. Die Änderungen werden erst dann in die anderen Regionen repliziert, nachdem sie in der Quellregion in die Datenbank eingetragen wurden.

DynamoDB Streams

Gleichzeitige Leser eines Shard in DynamoDB Streams

Für Einzelregionstabellen, bei denen es sich nicht um globale Tabellen handelt, können Sie bis zu zwei Prozesse entwerfen, die gleichzeitig aus demselben DynamoDB-Streams-Shard lesen. Eine Überschreitung dieses Grenzwerts kann zu einer Anforderungsdrosselung führen. Für globale Tabellen empfehlen wir, die Anzahl der gleichzeitigen Lesevorgänge auf einen zu beschränken, um eine Anforderungsdrosselung zu vermeiden.

Maximale Schreibkapazität für eine Tabelle mit aktivierten DynamoDB-Streams

AWS legt einige Standardkontingente für die Schreibkapazität für DynamoDB-Tabellen mit aktivierten DynamoDB Streams fest. Diese Standardkontingente gelten nur für Tabellen im Modus für bereitgestellte Lese-/Schreibkapazität. Im Folgenden finden Sie die Durchsatzkontingente, die standardmäßig für Ihr Konto gelten.

  • Regionen USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Südamerika (São Paulo), Europa (Frankfurt), Europa (Irland), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), China (Beijing):

    • Pro Tabelle – 40 000 Schreibkapazitätseinheiten

  • Alle anderen Regionen:

    • Pro Tabelle – 10 000 Schreibkapazitätseinheiten

Sie können die Service Quotas Quotas-Konsole, die AWS APIund die verwenden, AWS CLIum die maximale Schreibkapazität für eine Tabelle mit aktivierten DynamoDB Streams zu überprüfen, die standardmäßigen und aktuellen Kontingente, die für Ihr Konto gelten, und um bei Bedarf Kontingenterhöhungen anzufordern. Sie können Kontingenterhöhungen auch beantragen, indem Sie ein Ticket an den AWS -Support senden.

Anmerkung

Die Kontingente für bereitgestellten Durchsatz gelten auch für DynamoDB-Tabellen mit aktivierten DynamoDB Streams. Wenn Sie eine Kontingenterhöhung der Schreibkapazität für eine Tabelle mit aktivierten Streams beantragen, stellen Sie sicher, dass Sie auch eine Erhöhung der bereitgestellten Durchsatzkapazität für diese Tabelle anfordern. Weitere Informationen finden Sie unter Standardkontingente für den Durchsatz. Andere Kontingente gelten auch bei der Verarbeitung von DynamoDB Streams mit höherem Durchsatz. Weitere Informationen finden Sie im APIReferenzhandbuch zu Amazon DynamoDB Streams.

DynamoDB Accelerator (DAX)

AWS Verfügbarkeit in der Region

Eine Liste der AWS Regionen, in denen DAX es verfügbar ist, finden Sie unter DynamoDB Accelerator (DAX) in der. Allgemeine AWS-Referenz

Knoten

Ein DAX Cluster besteht aus genau einem Primärknoten und zwischen null und zehn Read Replica-Knoten.

Die Gesamtzahl der Knoten (pro AWS Konto) darf 50 in einer einzelnen AWS Region nicht überschreiten.

Parametergruppen

Sie können bis zu 20 DAX-Parametergruppen pro Region erstellen.

Subnetzgruppen

Sie können bis zu 50 DAX-Subnetzgruppen pro Region erstellen.

Innerhalb einer Subnetzgruppe können Sie bis zu 20 Subnetze definieren.

Wichtig

Ein DAX Cluster unterstützt maximal 500 DynamoDB-Tabellen. Sobald Sie mehr als 500 DynamoDB-Tabellen haben, kann es in Ihrem Cluster zu einer Verschlechterung der Verfügbarkeit und Leistung kommen.

API-spezifische Grenzwerte

CreateTable/UpdateTable/DeleteTable/PutResourcePolicy/DeleteResourcePolicy

Im Allgemeinen können bis zu 500 CreateTable,, UpdateTableDeleteTablePutResourcePolicy, und DeleteResourcePolicyAnfragen gleichzeitig in beliebiger Kombination ausgeführt werden. Folglich darf die Gesamtanzahl von Tabellen im Status CREATING, UPDATING oder DELETING nicht mehr als 500 betragen.

Sie können pro Sekunde bis zu 2.500 Anfragen an veränderbare Anforderungen (CreateTable, DeleteTable UpdateTablePutResourcePolicy, undDeleteResourcePolicy) auf der Steuerungsebene API in einer Gruppe von Tabellen einreichen. Für die DeleteResourcePolicy Anfragen PutResourcePolicy und gelten jedoch niedrigere individuelle Grenzwerte. Weitere Informationen finden Sie in den folgenden Kontingentdetails für PutResourcePolicy undDeleteResourcePolicy.

CreateTableund PutResourcePolicy Anfragen, die eine ressourcenbasierte Richtlinie beinhalten, zählen als zwei zusätzliche Anfragen pro KB der Richtlinie. Eine PutResourcePolicy Oder-Anfrage mit einer CreateTable Richtlinie der Größe 5 KB wird beispielsweise als 11 Anfragen gezählt. 1 für die CreateTable Anfrage und 10 für die ressourcenbasierte Richtlinie (2 x 5 KB). In ähnlicher Weise wird eine Richtlinie mit einer Größe von 20 KB als 41 Anfragen gezählt. 1 für die CreateTable Anfrage und 40 für die ressourcenbasierte Richtlinie (2 x 20 KB).

PutResourcePolicy

Sie können bis zu 25 PutResourcePolicy API Anfragen pro Sekunde für eine Gruppe von Tabellen einreichen. Nach einer erfolgreichen Anfrage für eine einzelne Tabelle werden in den folgenden 15 Sekunden keine neuen PutResourcePolicy Anfragen unterstützt.

Die maximale Größe, die für ein ressourcenbasiertes Richtliniendokument unterstützt wird, beträgt 20 KB. DynamoDB zählt Leerzeichen, wenn die Größe einer Richtlinie anhand dieses Grenzwerts berechnet wird.

DeleteResourcePolicy

Sie können bis zu 50 DeleteResourcePolicy API Anfragen pro Sekunde für eine Gruppe von Tabellen einreichen. Nach einer erfolgreichen PutResourcePolicy Anfrage für eine einzelne Tabelle werden in den folgenden 15 Sekunden keine DeleteResourcePolicy Anfragen unterstützt.

BatchGetItem

Eine einzelne BatchGetItem-Operation kann maximal 100 Elemente abrufen. Die Gesamtgröße aller abgerufenen Elemente darf 16 MB nicht überschreiten.

BatchWriteItem

Eine einzelne BatchWriteItem-Operation kann bis zu 25 PutItem- oder DeleteItem-Anforderungen umfassen. Die Gesamtgröße aller geschriebenen Elemente darf 16 MB nicht überschreiten.

DescribeStream

Sie können DescribeStream maximal 10 Mal pro Sekunde anrufen.

DescribeTableReplicaAutoScaling

Die Methode DescribeTableReplicaAutoScaling unterstützt nur zehn Anforderungen pro Sekunde.

DescribeLimits

DescribeLimits sollte nur gelegentlich aufgerufen werden. Sie müssen mit Drosselungsfehlern rechnen, wenn Sie die Anforderung mehr als einmal pro Minute aufrufen.

DescribeContributorInsights/ListContributorInsights/UpdateContributorInsights

DescribeContributorInsights, ListContributorInsights und UpdateContributorInsights sollten nur gelegentlich aufgerufen werden. DynamoDB unterstützt für jede dieser Anfragen bis zu fünf Anfragen pro Sekunde. APIs

DescribeTable/ListTables/GetResourcePolicy

Sie können bis zu 2.500 Anfragen pro Sekunde aus einer Kombination von schreibgeschützten (DescribeTableListTables, undGetResourcePolicy) Anfragen auf Steuerungsebene senden. API Die GetResourcePolicy API hat ein niedriges individuelles Limit von 100 Anfragen pro Sekunde.

Query

Der Ergebnissatz einer Query ist auf 1 MB pro Aufruf beschränkt. Sie können den LastEvaluatedKey von der Query-Antwort verwenden, um weitere Ergebnisse abzurufen.

Scan

Der Ergebnissatz einer Scan ist auf 1 MB pro Aufruf beschränkt. Sie können den LastEvaluatedKey von der Scan-Antwort verwenden, um weitere Ergebnisse abzurufen.

UpdateKinesisStreamingDestination

Bei der Ausführung von UpdateKinesisStreamingDestination Vorgängen können Sie innerhalb von 24 Stunden maximal dreimal einen neuen Wert festlegenApproximateCreationDateTimePrecision.

UpdateTableReplicaAutoScaling

Die Methode UpdateTableReplicaAutoScaling unterstützt nur zehn Anforderungen pro Sekunde.

UpdateTableTimeToLive

Die Methode UpdateTableTimeToLive unterstützt nur eine Anforderung zum Aktivieren oder Deaktivieren von Time to Live (TTL) pro angegebener Tabelle und Stunde. Es kann bis zu einer Stunde dauern, bis diese Änderung vollständig verarbeitet ist. Alle weiteren UpdateTimeToLive Aufrufe für dieselbe Tabelle während dieser einstündigen Dauer führen zu einem ValidationException.

Ruhende DynamoDB-Verschlüsselung

Ab dem Zeitpunkt AWS-eigener Schlüssel, an dem die Tabelle erstellt wurde Von AWS verwalteter Schlüssel, können Sie innerhalb eines 24-Stunden-Fensters bis zu viermal pro Tabelle zwischen einem, einem und einem kundenverwalteten Schlüssel wechseln. Wenn in den vorhergehenden 6 Stunden kein Wechsel erfolgt ist, ist ein zusätzlicher Wechsel erlaubt. Dadurch wird die maximale Anzahl an Wechseln pro Tag faktisch auf 8 erhöht (4 Wechsel in den ersten 6 Stunden und ein weiterer Wechsel jeweils für alle folgenden Zeitfenster von 6 Stunden an einem Tag).

Sie können die Verschlüsselungsschlüssel AWS-eigener Schlüssel so oft wie nötig wechseln, um sie zu verwenden, auch wenn das oben genannte Kontingent ausgeschöpft ist.

Es gelten die folgenden Kontingente, sofern Sie keine höheren Werte beantragen. Informationen zur Beantragung einer Erhöhung des Servicekontingents finden Sie unter https://aws.amazon.com/support.

Exportieren von Tabellen zu Amazon S3

Es können bis zu 300 gleichzeitige Exportaufgaben oder bis zu insgesamt 100 TB aus allen laufenden Tabellenexporten exportiert werden. Beide Grenzwerte werden überprüft, bevor ein Export in die Warteschlange gestellt wird.

Inkrementeller Export: Bis zu 300 gleichzeitige Jobs oder 100 TB Tabellengröße können in einem Exportfenster zwischen mindestens 15 Minuten und maximal 24 Stunden gleichzeitig exportiert werden.

Backup und Wiederherstellung

Bei der Wiederherstellung über On-Demand-Backups in DynamoDB können Sie bis zu 50 gleichzeitige Wiederherstellungen mit insgesamt 50 TB durchführen. Bei der Wiederherstellung über AWS Backup können Sie bis zu 50 gleichzeitige Wiederherstellungen mit insgesamt 25 TB ausführen. Weitere Informationen über Sicherungen finden Sie unter Backup und Wiederherstellung für DynamoDB.

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.