Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
In diesem Abschnitt werden die aktuellen Kontingente – früher als Grenzwerte bezeichnet – in Amazon DynamoDB beschrieben. Jedes Kontingent gilt pro Region, sofern nicht anders angegeben.
Themen
Lese-/Schreibkapazitätsmodus und Durchsatz
Sie können Tabellen jederzeit vom On-Demand-Modus in den Modus mit bereitgestellter Kapazität wechseln. Wenn Sie mehrfach zwischen den Kapazitätsmodi wechseln, gelten die folgenden Bedingungen:
-
Sie können eine neu erstellte Tabelle jederzeit im On-Demand-Modus in den Modus für bereitgestellte Kapazität umschalten. Sie können sie jedoch erst 24 Stunden nach dem Erstellungszeitstempel der Tabelle wieder in den On-Demand-Modus zurückschalten.
-
Sie können eine bestehende Tabelle im On-Demand-Modus jederzeit in den Modus für bereitgestellte Kapazität umschalten. Sie können sie jedoch erst 24 Stunden nach dem letzten Zeitstempel, der auf einen Wechsel zum On-Demand-Modus hinweist, wieder in den On-Demand-Modus zurückschalten.
Weitere Informationen zum Umschalten zwischen Lese- und Schreibkapazitätsmodus finden Sie unterÜberlegungen beim Wechseln der Kapazitätsmodi in DynamoDB.
Kapazitätseinheitsgrößen (für Tabellen mit bereitgestellter Kapazität)
Eine Lesekapazitätseinheit entspricht einem Strongly-Consistent-Lesevorgang pro Sekunde oder zwei Eventually-Consistent-Lesevorgängen pro Sekunde für Elemente mit einer Größe von bis zu 4 KB.
Eine Schreibkapazitätseinheit entspricht einem Schreibvorgang pro Sekunde für Elemente mit einer Größe von bis zu 1 KB.
Transactional-Leseanforderungen benötigen zwei Lesekapazitätseinheiten, um einen Lesevorgang pro Sekunde für Elemente mit einer Größe bis zu 4 KB durchzuführen.
Transaktionelle Schreibforderungen benötigen zwei Schreibkapazitätseinheiten, um einen Schreibvorgang pro Sekunde für Elemente mit einer Größe bis zu 1 KB durchzuführen.
Anforderungseinheitengrößen (für On-Demand-Tabellen)
Eine Leseanforderungseinheit entspricht einem strikt konsistenten Lesevorgang pro Sekunde oder zwei letztendlich konsistenten Lesevorgängen pro Sekunde für Elemente mit einer Größe von bis zu 4 KB.
Eine Schreibanforderungseinheit entspricht einem Schreibvorgang pro Sekunde für Elemente mit einer Größe von bis zu 1 KB.
Transaktionale Leseanforderungen benötigen zwei Leseanforderungseinheiten, um einen Lesevorgang pro Sekunde für Elemente mit einer Größe bis zu 4 KB durchführen zu können.
Transaktionale Schreibanforderungen benötigen zwei Schreibanforderungseinheiten, um einen Schreibvorgang pro Sekunde für Elemente mit einer Größe bis zu 1 KB durchführen zu können.
Standardkontingente für den Durchsatz
AWS legt einige Standardkontingente für den Durchsatz fest, den Ihr Konto innerhalb einer Region bereitstellen und nutzen kann.
Die Kontingente für den Lese- und den Schreibdurchsatz auf Kontoebene werden auf Kontoebene angewendet. Diese Kontingente auf Kontoebene gelten für die Summe der bereitgestellten Durchsatzkapazität für alle Tabellen und globalen sekundären Indizes Ihres Kontos in einer bestimmten Region. Der gesamte verfügbare Durchsatz des Kontos kann für eine einzige Tabelle oder für mehrere Tabellen bereitgestellt werden. Diese Kontingente gelten nur für Tabellen, die den Modus für bereitgestellte Kapazität verwenden.
Die Kontingente für den Lese- und den Schreibdurchsatz auf Tabellenebene gelten unterschiedlich für Tabellen, die den Modus mit bereitgestellter Kapazität verwenden, und Tabellen, die den Modus mit On-Demand-Kapazität verwenden.
Bei Tabellen mit bereitgestelltem Kapazitätsmodus und GSIs ist das Kontingent die maximale Anzahl an Lese- und Schreibkapazitätseinheiten, die für jede Tabelle oder jede Tabelle GSIs in der Region bereitgestellt werden können. Die Summe aller einzelnen Tabellen und ihrer Gesamtheit GSIs muss ebenfalls unter dem Kontingent für den Lese- und Schreibdurchsatz auf Kontoebene bleiben. Dies gilt zusätzlich zu der Anforderung, dass die Summe aller bereitgestellten Tabellen und ihrer Tabellen unter der Quote für den Lese- und Schreibdurchsatz auf Kontoebene bleiben GSIs muss.
Bei Tabellen und GSIs im On-Demand-Kapazitätsmodus entspricht das Kontingent auf Tabellenebene den maximalen Lese- und Schreibkapazitätseinheiten, die für jede Tabelle oder für jede einzelne Person in dieser Tabelle verfügbar sind. GSI Im On-Demand-Modus werden keine Kontingente für den Lese- und den Schreibdurchsatz auf Kontoebene auf Tabellen angewendet.
Im Folgenden sind die Durchsatzkontingente aufgeführt, die standardmäßig für Ihr Konto gelten.
Name des Durchsatzkontingents | On-Demand | Bereitgestellt | Einstellbar |
---|---|---|---|
|
|
|
Ja |
|
|
|
Ja |
|
|
|
Ja |
Sie können die Konsole Service Quotas
Für Ihre Durchsatzkontingente auf Kontoebene können Sie die Service-Kontingents-KonsoleAccountProvisionedReadCapacityUnits
AccountProvisionedWriteCapacityUnits
AWS Nutzungskennzahlen ansehen. Weitere Informationen zu Nutzungsmetriken finden Sie unter AWS -Nutzungsmetriken.
Erhöhen oder Verringern des Durchsatzes (für Tabellen im Modus bereitgestellter Kapazität)
Erhöhen des bereitgestellten Durchsatzes
Sie können ReadCapacityUnits
oder WriteCapacityUnits
nach Bedarf mithilfe der AWS Management Console
oder der Operation UpdateTable
erhöhen. In einem einzigen Aufruf können Sie den bereitgestellten Durchsatz für eine Tabelle, für jeden globalen sekundären Index in dieser Tabelle oder für eine beliebige Kombination dieser Komponenten erhöhen. Die neuen Einstellungen werden erst wirksam, wenn die UpdateTable
-Operation abgeschlossen ist.
Sie können die Kontingente pro Konto nicht überschreiten, wenn Sie bereitgestellte Kapazität hinzufügen. DynamoDB erlaubt nicht, die bereitgestellte Kapazität sehr schnell zu erhöhen. Abgesehen von diesen Einschränkungen können Sie die bereitgestellte Kapazität für Ihre Tabellen nach Bedarf erhöhen. Weitere Informationen zu diesen Kontingenten auf Kontoebene finden Sie im vorhergehenden Abschnitt, Standardkontingente für den Durchsatz.
Senken des bereitgestellten Durchsatzes
Für jede Tabelle und jeden globalen sekundären Index in einer UpdateTable
-Operation können Sie ReadCapacityUnits
oder WriteCapacityUnits
(oder beide) reduzieren. Die neuen Einstellungen werden erst wirksam, wenn die UpdateTable
-Operation abgeschlossen ist.
Es gibt ein Standardkontingent für die Anzahl der Abnahmen bereitgestellter Kapazität, die Sie pro Tag für Ihre DynamoDB-Tabelle ausführen können. Ein Tag ist gemäß der koordinierten Weltzeit (UTC) definiert. An einem bestimmten Tag können Sie damit beginnen, innerhalb einer Stunde bis zu vier Abnahmen auszuführen, solange Sie an diesem Tag noch keine weiteren Abnahmen ausgeführt haben. Anschließend können Sie eine weitere Senkung pro Stunde (einmal alle 60 Minuten) vornehmen. Dadurch wird die maximale Anzahl von Abnahmen an einem Tag effektiv auf das 27-fache erhöht.
Sie können die Service Quotas Quotas-Konsole
Wichtig
Die Tabellen und die Limits für Verringerungen von globalen sekundären Indizes sind entkoppelt, sodass die globalen sekundären Indizes für eine bestimmte Tabelle ihre eigenen Limits für Verringerungen haben. Wenn jedoch eine einzelne Anforderung den Durchsatz für eine Tabelle und einen globalen sekundären Index verringert, wird dies abgelehnt, wenn das aktuelle Limit für einen davon überschritten wird. Anforderungen werden nicht teilweise verarbeitet.
Beispiel
Eine Tabelle mit einem globalen sekundären Index kann in den ersten 4 Stunden des Tages wie folgt geändert werden:
-
Die
WriteCapacityUnits
oder dieReadCapacityUnits
(oder beide) der Tabelle können viermal verringert werden. -
Die
WriteCapacityUnits
oder dieReadCapacityUnits
(oder beide) des globalen sekundären Index können viermal verringert werden.
Am Ende eines Tages kann der Durchsatz der Tabelle und des globalen sekundären Index potentiell insgesamt jeweils 27 Mal verringert werden.
Reservierte Kapazität
AWS legt ein Standardkontingent für die Menge an aktiver reservierter Kapazität fest, die Ihr Konto erwerben kann. Das Kontingentlimit ist eine Kombination aus reservierter Kapazität für Schreibkapazitätseinheiten (WCUs) und Lesekapazitätseinheiten (RCUs).
Quote für reservierte Kapazität | Aktive reservierte Kapazität | Einstellbar |
---|---|---|
Pro Konto |
1.000.000 bereitgestellte Kapazitätseinheiten (_) WCUs RCUs |
Ja |
Wenn Sie versuchen, mehr als 1.000.000 bereitgestellte Kapazitätseinheiten in einem einzigen Kauf zu erwerben, erhalten Sie eine Fehlermeldung aufgrund der Servicekontingentbeschränkung. Wenn Sie über aktive reservierte Kapazität verfügen und versuchen, zusätzliche reservierte Kapazität zu erwerben, was zu mehr als 1.000.000 aktiven bereitgestellten Kapazitätseinheiten führen würde, erhalten Sie eine Fehlermeldung aufgrund der Servicekontingentbeschränkung.
Wenn Sie reservierte Kapazität für mehr als 1.000.000 bereitgestellte Kapazitätseinheiten benötigen, können Sie eine Erhöhung des Kontingents beantragen, indem Sie eine Anfrage an Support
Importkontingente
Der DynamoDB-Import aus Amazon S3 kann bis zu 50 gleichzeitige Importaufgaben mit einer Gesamtgröße von 15 TB gleichzeitig in den Regionen us-east-1, us-west-2 und eu-west-1 unterstützen. In allen anderen Regionen werden bis zu 50 gleichzeitige Importaufgaben mit einer Gesamtgröße von 1 TB unterstützt. Jeder Importauftrag kann bis zu 50.000 Amazon S3 S3-Objekte in allen Regionen umfassen. Weitere Informationen zum Importieren und Validieren finden Sie unter Importformatkontingente und Validierung.
Contributor Insights
Wenn Sie Customer Insights in Ihrer DynamoDB-Tabelle aktivieren, unterliegen Sie weiterhin den Regelbeschränkungen von Contributor Insights. Weitere Informationen finden Sie unter CloudWatch -Servicekontingente.
Tabellen
Tabellengröße
Es gibt praktisch kein Limit für die Tabellengröße. Tabellen sind in Bezug auf die Anzahl von Elementen oder die Anzahl von Bytes unbeschränkt.
Maximale Anzahl von Tabellen pro Konto und Region
Für jedes AWS Konto gibt es ein anfängliches Kontingent von 2.500 Tabellen pro Region. AWS
Wenn Sie mehr als 2 500 Tabellen für ein einzelnes Konto benötigen, wenden Sie sich bitte an Ihr AWS -Kontoteam, um eine Erhöhung auf maximal 10 000 Tabellen zu prüfen. Bei mehr als 10 000 Tabellen wird empfohlen, mehrere Konten einzurichten, von denen jedes bis zu 10 000 Tabellen bearbeiten kann.
Sie können die Konsole Service Quotas
Mithilfe der Servicekontingenten-KonsoleTableCount
AWS Nutzungsmetriken überwachen. Weitere Informationen zu Nutzungsmetriken finden Sie unter AWS -Nutzungsmetriken.
Globale Tabellen
AWS legt einige Standardkontingente für den Durchsatz fest, den Sie bereitstellen oder nutzen können, wenn Sie globale Tabellen verwenden.
Standardmäßige globale Tabellenkontingente | On-Demand | Bereitgestellt |
---|---|---|
|
|
|
|
|
|
Transaktionsoperationen bieten Atomarität, Konsistenz, Isolierung und Dauerhaftigkeit (ACID) nur innerhalb der AWS Region, in der der Schreibvorgang ursprünglich vorgenommen wurde. Regionsübergreifende Transaktionen werden in globalen Tabellen nicht unterstützt. Angenommen, Sie haben eine globale Tabelle mit Replikaten in den Regionen USA Ost (Ohio) und USA West (Oregon) und führen einen TransactWriteItems Vorgang in der Region USA Ost (Nord-Virginia) durch. In diesem Fall können sind möglicherweise teilweise abgeschlossene Transaktionen in der Region USA West (Oregon) zu beobachten, während Änderungen repliziert werden. Die Änderungen werden erst dann in die anderen Regionen repliziert, nachdem sie in der Quellregion in die Datenbank eingetragen wurden.
Anmerkung
Es kann vorkommen, dass Sie eine Erhöhung des Kontingentlimits beantragen müssen. AWS -Support Wenn einer der folgenden Punkte auf Sie zutrifft, wenden Sie sich bitte an https://aws.amazon.com/support
-
Wenn Sie ein Replikat für eine Tabelle hinzufügen, die für die Verwendung von mehr als 40.000 Schreibkapazitätseinheiten (WCU) konfiguriert ist, müssen Sie eine Erhöhung des Servicekontingents für Ihr Kontingent zum Hinzufügen von WCU Replikaten beantragen.
-
Wenn Sie innerhalb eines Zeitraums von 24 Stunden ein Replikat oder Replikate zu einer Zielregion mit einer kombinierten Summe von mehr als 10 TB hinzufügen, müssen Sie eine Erhöhung des Servicekontingents für das Backfill-Kontingent zum Hinzufügen von Replikaten anfordern.
-
Wenn Sie eine Fehlermeldung erhalten, die etwa wie folgt lautet:
-
Es kann kein Replikat der Tabelle 'example_table' in der Region 'example_region_A' erstellt werden, da damit Ihr aktuelles Kontolimit in der Region 'example_region_B' überschritten wird.
-
Sekundäre Indexe
Sekundäre Indizes pro Tabelle
Sie können maximal 5 lokale sekundäre Indizes definieren.
Pro Tabelle besteht ein Standardkontingent von 20 globalen sekundären Indizes. Sie können die Service-Kontingents-Konsole
Sie können nur einen globalen sekundären Index pro UpdateTable
-Operation erstellen oder löschen.
Projizierte sekundäre Indexattribute pro Tabelle
Sie können insgesamt bis zu 100 Attribute in alle lokalen und globalen sekundären Indizes einer Tabelle projizieren. Dies gilt nur für vom Benutzer angegebene, projizierte Attribute.
Wenn Sie in einer CreateTable
-Operation für ProjectionType
von INCLUDE
angeben, darf die Gesamtanzahl von in NonKeyAttributes
angegebenen Attributen, die sich aus der Summe aller sekundären Indizes ergibt, 100 nicht überschreiten. Wenn Sie denselben Attributnamen in zwei verschiedene Indizes projizieren, werden beim Ermitteln der Gesamtanzahl zwei unterschiedliche Attribute gezählt.
Dieses Limit gilt nicht für sekundäre Indizes mit dem ProjectionType
KEYS_ONLY
oder ALL
.
Partitions- und Sortierschlüssel
Partitionsschlüssellänge
Die Mindestlänge eines Partitionsschlüsselwerts beträgt 1 Byte. Die maximale Länge beträgt 2 048 Byte.
Partitionsschlüsselwerte
Es gibt praktisch keine Einschränkung in Bezug auf die Anzahl von eindeutigen Partitionsschlüsselwerten, weder für Tabellen noch für sekundäre Indizes.
Sortierschlüssellänge
Die Mindestlänge eines Sortierschlüsselwerts beträgt 1 Byte. Die maximale Länge beträgt 1 024 Byte.
Sortierschlüsselwerte
Im Prinzip gibt es praktisch keine Einschränkung in Bezug auf die Anzahl von eindeutigen Sortierschlüsselwerten pro Partitionsschlüsselwert.
Eine Ausnahme bilden Tabellen mit sekundären Indizes. Eine Elementauflistung ist ein Satz von Elementen, die als Partitionsschlüsselattribut den gleichen Wert haben. In einem globalen sekundären Index ist die Elementauflistung unabhängig von der Basistabelle (und kann ein anderes Partitionsschlüsselattribut haben). In einem lokalen sekundären Index befindet sich die indizierte Ansicht jedoch in derselben Partition (Co-Location) wie das Element in der Tabelle und verwendet dasselbe Partitionsschlüsselattribut. Aufgrund dieser Lokalität kann die Elementsammlung nicht auf mehrere Partitionen verteilt werdenLSIs, wenn eine Tabelle über eine oder mehrere Partitionen verfügt.
Bei einer Tabelle mit einer oder mehreren LSIs Elementen dürfen Elementsammlungen eine Größe von 10 GB nicht überschreiten. Dazu gehören alle Elemente der Basistabelle und alle projizierten LSI Ansichten, die denselben Wert des Partitionsschlüsselattributs haben. 10 GB ist die maximale Größe einer Partition. Detailliertere Informationen erhalten Sie unter Größenlimit der Elementauflistung.
Benennungsregeln
Tabellennamen und sekundäre Indexnamen
Namen für Tabellen und sekundäre Indizes müssen mindestens 3 Zeichen und dürfen höchstens 255 Zeichen lang sein. Es sind die folgenden Zeichen zulässig:
-
A-Z
-
a-z
-
0-9
-
_
(Unterstrich) -
-
(Bindestrich) -
.
(Punkt)
Attributnamen
Im Allgemeinen muss ein Attributname mindestens ein Zeichen lang sein und darf nicht größer als 64 KB sein.
Dabei gibt es die folgenden Ausnahmen. Diese Attributnamen dürfen maximal 255 Zeichen lang sein:
-
Partitionsschlüsselnamen des Sekundärindexes
-
Sortierschlüsselnamen des Sekundärindexes
-
Die Namen aller vom Benutzer angegebenen, projizierten Attribute (gilt nur für lokale sekundäre Indizes). Wenn Sie in einer
CreateTable
-Operation denProjectionType
INCLUDE
angeben, sind die Namen der Attribute des ParametersNonKeyAttributes
längenbeschränkt. Die ProjektionstypenKEYS_ONLY
undALL
sind nicht betroffen.
Diese Attributnamen müssen mit UTF -8 codiert werden, und die Gesamtgröße jedes Namens (nach der Kodierung) darf 255 Byte nicht überschreiten.
Datentypen
String
Die Länge einer Zeichenfolge wird durch die maximale Elementgröße 400 KB beschränkt.
Zeichenketten sind Unicode-Zeichen mit der UTF Binärkodierung -8. Da es sich bei UTF -8 um eine Kodierung mit variabler Breite handelt, bestimmt DynamoDB die Länge eines Strings anhand seiner UTF -8 Byte.
Zahl
Eine Zahl kann bis zu 38 Nachkommastellen besitzen und positiv, negativ oder null sein.
-
Positiver Bereich:
1E-130
bis9.9999999999999999999999999999999999999E+125
-
Negativer Bereich:
-9.9999999999999999999999999999999999999E+125
bis-1E-130
DynamoDB verwendet JSON Zeichenfolgen, um Zahlendaten in Anfragen und Antworten darzustellen. Weitere Informationen finden Sie unter DynamoDB auf niedriger Ebene API.
Wenn die Zahlengenauigkeit wichtig ist, sollten Sie Zahlen mithilfe von Zeichenfolgen, die Sie aus einem Number-Datentyp konvertieren, an DynamoDB übergeben.
Binär
Die Länge eines binären Werts wird durch die maximale Elementgröße 400 KB beschränkt.
Anwendungen, die binäre Attribute verwenden, müssen die Daten vor dem Senden an DynamoDB im base64-Format kodieren. Nach dem Empfang der Daten dekodiert DynamoDB sie in ein nicht signiertes Byte-Array und verwendet dieses Array für die Länge der Attribute.
Items
Elementgröße
Die maximale Elementgröße in DynamoDB beträgt 400 KB, was sowohl die binäre Länge des Attributnamens (UTF-8 Länge) als auch die Länge der Attributwerte (wiederum binäre Länge) umfasst. Der Attributname wird bei der Größenbeschränkung mit eingerechnet.
Betrachten wir ein Element mit zwei Attributen als Beispiel: ein Attribut mit dem Namen „Shirtfarbe“ und dem Wert „R“ und ein weiteres Attribut mit dem Namen „Shirtgröße“ und dem Wert „M“. Die Gesamtgröße dieses Elements ist 23 Byte.
Elementgröße für Tabellen mit lokalen sekundären Indizes
Für jeden lokalen sekundären Index in einer Tabelle gilt ein Limit von 400 KB im Hinblick auf die Summe folgender Werte:
-
Die Größe der Daten eines Elements in der Tabelle.
-
Die Größe der entsprechenden Einträge (einschließlich der Schlüsselwerte und projizierten Attribute) in allen lokalen sekundären Indizes.
Attribute
Attribut-Namen-Wert-Paare pro Element
Die Gesamtgröße von Attributen pro Element muss der maximalen DynamoDB-Elementgröße (400 KB) entsprechen.
Anzahl der Werte in einer Liste, einer Zuordnung oder einem Satz
Es gibt keine Beschränkungen in Bezug auf die Anzahl der Werte in einer Liste, einer Zuordnung oder einem Satz, solange das Element, das die Werte enthält, das Limit der Elementgröße von 400 KB einhält.
Attributwerte
Leere Zeichenfolgen- und Binär-Attributwerte sind zulässig, wenn das Attribut nicht als Schlüsselattribut für eine Tabelle oder einen Index verwendet wird. Leere Zeichenfolgen- und Binärwerte sind innerhalb der Mengen, Listen und Zuordnungen zulässig. Ein Attributwert kann kein leerer Satz sein (Zeichenfolgensatz, Zahlensatz und Binärzahlensatz). Leere Listen und Zuordnungen sind jedoch zulässig.
Verschachtelte Attributtiefe
DynamoDB unterstützt bis zu 32 Ebenen verschachtelter Attribute.
Ausdrucksparameter
Ausdrucksparameter umfassen ProjectionExpression
, ConditionExpression
, UpdateExpression
und FilterExpression
.
Länge
Die maximale Länge der Ausdruckszeichenfolge ist 4 KB. Die Größe von ConditionExpression
a=b
beträgt z. B. 3 Byte.
Die maximale Länge jedes einzelnen Ausdrucksattributnamens oder Ausdrucksattributwerts beträgt 255 Byte. #name
ist beispielsweise 5 Byte lang; :val
4 Byte.
Die maximale Länge aller Substitutionsvariablen in einem Ausdruck beträgt 2 MB. Dies ist die Summe der Längen aller ExpressionAttributeNames
und ExpressionAttributeValues
.
Operatoren und Operanden
Die maximale Anzahl von in UpdateExpression
zulässigen Operatoren oder Funktionen ist 300. Zum Beispiel UpdateExpressionSET a = :val1 + :val2 + :val3
enthält der zwei "" +
-Operatoren.
Die maximale Anzahl von Operanden für den Vergleichsoperator IN
ist 100.
Reservierte Wörter
DynamoDB verhindert nicht, dass Namen verwendet werden, die mit reservierten Wörtern in Konflikt stehen. (Eine vollständige Liste finden Sie unter Reservierte Wörter in DynamoDB.)
Wenn Sie jedoch ein reserviertes Wort in einem Ausdrucksparameter verwenden, müssen Sie auch ExpressionAttributeNames
angeben. Weitere Informationen finden Sie unter Namen von Ausdrucksattributen (Aliase) in DynamoDB.
DynamoDB-Transaktionen
APIDynamoDB-Transaktionsoperationen haben die folgenden Einschränkungen:
-
Eine Transaktion darf nicht mehr als 100 eindeutige Elemente enthalten.
-
Eine Transaktion darf nicht mehr als 4 MB Daten enthalten.
-
Zwei Aktionen gleichzeitig dürfen nicht auf dasselbe Element in der derselben Tabelle einwirken. Beispielsweise können
ConditionCheck
undUpdate
in einer Transaktion nicht beide auf dasselbe Element abzielen. -
Eine Transaktion kann nicht für Tabellen in mehr als einem Konto oder einer AWS Region ausgeführt werden.
-
Transaktionsoperationen bieten Atomarität, Konsistenz, Isolierung und Dauerhaftigkeit (ACID) nur innerhalb der AWS Region, in der der Schreibvorgang ursprünglich vorgenommen wurde. Regionsübergreifende Transaktionen werden in globalen Tabellen nicht unterstützt. Angenommen, Sie haben eine globale Tabelle mit Replikaten in den Regionen USA Ost (Ohio) und USA West (Oregon) und Sie führen einen
TransactWriteItems
-Vorgang in der Region USA Ost (Nord-Virginia) aus. In diesem Fall können sind möglicherweise teilweise abgeschlossene Transaktionen in der Region USA West (Oregon) zu beobachten, während Änderungen repliziert werden. Die Änderungen werden erst dann in die anderen Regionen repliziert, nachdem sie in der Quellregion in die Datenbank eingetragen wurden.
DynamoDB Streams
Gleichzeitige Leser eines Shard in DynamoDB Streams
Für Einzelregionstabellen, bei denen es sich nicht um globale Tabellen handelt, können Sie bis zu zwei Prozesse entwerfen, die gleichzeitig aus demselben DynamoDB-Streams-Shard lesen. Eine Überschreitung dieses Grenzwerts kann zu einer Anforderungsdrosselung führen. Für globale Tabellen empfehlen wir, die Anzahl der gleichzeitigen Lesevorgänge auf einen zu beschränken, um eine Anforderungsdrosselung zu vermeiden.
Maximale Schreibkapazität für eine Tabelle mit aktivierten DynamoDB-Streams
AWS legt einige Standardkontingente für die Schreibkapazität für DynamoDB-Tabellen mit aktivierten DynamoDB Streams fest. Diese Standardkontingente gelten nur für Tabellen im Modus für bereitgestellte Lese-/Schreibkapazität. Im Folgenden finden Sie die Durchsatzkontingente, die standardmäßig für Ihr Konto gelten.
-
Regionen USA Ost (Nord-Virginia), USA Ost (Ohio), USA West (Nordkalifornien), USA West (Oregon), Südamerika (São Paulo), Europa (Frankfurt), Europa (Irland), Asien-Pazifik (Tokio), Asien-Pazifik (Seoul), Asien-Pazifik (Singapur), Asien-Pazifik (Sydney), China (Beijing):
-
Pro Tabelle – 40 000 Schreibkapazitätseinheiten
-
-
Alle anderen Regionen:
-
Pro Tabelle – 10 000 Schreibkapazitätseinheiten
-
Sie können die Service Quotas Quotas-Konsole
Anmerkung
Die Kontingente für bereitgestellten Durchsatz gelten auch für DynamoDB-Tabellen mit aktivierten DynamoDB Streams. Wenn Sie eine Kontingenterhöhung der Schreibkapazität für eine Tabelle mit aktivierten Streams beantragen, stellen Sie sicher, dass Sie auch eine Erhöhung der bereitgestellten Durchsatzkapazität für diese Tabelle anfordern. Weitere Informationen finden Sie unter Standardkontingente für den Durchsatz. Andere Kontingente gelten auch bei der Verarbeitung von DynamoDB Streams mit höherem Durchsatz. Weitere Informationen finden Sie im APIReferenzhandbuch zu Amazon DynamoDB Streams.
DynamoDB Accelerator (DAX)
AWS Verfügbarkeit in der Region
Eine Liste der AWS Regionen, in denen DAX es verfügbar ist, finden Sie unter DynamoDB Accelerator (DAX) in der. Allgemeine AWS-Referenz
Knoten
Ein DAX Cluster besteht aus genau einem Primärknoten und zwischen null und zehn Read Replica-Knoten.
Die Gesamtzahl der Knoten (pro AWS Konto) darf 50 in einer einzelnen AWS Region nicht überschreiten.
Parametergruppen
Sie können bis zu 20 DAX-Parametergruppen pro Region erstellen.
Subnetzgruppen
Sie können bis zu 50 DAX-Subnetzgruppen pro Region erstellen.
Innerhalb einer Subnetzgruppe können Sie bis zu 20 Subnetze definieren.
Wichtig
Ein DAX Cluster unterstützt maximal 500 DynamoDB-Tabellen. Sobald Sie mehr als 500 DynamoDB-Tabellen haben, kann es in Ihrem Cluster zu einer Verschlechterung der Verfügbarkeit und Leistung kommen.
API-spezifische Grenzwerte
CreateTable
/UpdateTable
/DeleteTable
/PutResourcePolicy
/DeleteResourcePolicy
-
Im Allgemeinen können bis zu 500 CreateTable,, UpdateTableDeleteTablePutResourcePolicy, und DeleteResourcePolicyAnfragen gleichzeitig in beliebiger Kombination ausgeführt werden. Folglich darf die Gesamtanzahl von Tabellen im Status
CREATING
,UPDATING
oderDELETING
nicht mehr als 500 betragen.Sie können pro Sekunde bis zu 2.500 Anfragen an veränderbare Anforderungen (
CreateTable
,DeleteTable
UpdateTable
PutResourcePolicy
, undDeleteResourcePolicy
) auf der Steuerungsebene API in einer Gruppe von Tabellen einreichen. Für dieDeleteResourcePolicy
AnfragenPutResourcePolicy
und gelten jedoch niedrigere individuelle Grenzwerte. Weitere Informationen finden Sie in den folgenden Kontingentdetails fürPutResourcePolicy
undDeleteResourcePolicy
.CreateTable
undPutResourcePolicy
Anfragen, die eine ressourcenbasierte Richtlinie beinhalten, zählen als zwei zusätzliche Anfragen pro KB der Richtlinie. EinePutResourcePolicy
Oder-Anfrage mit einerCreateTable
Richtlinie der Größe 5 KB wird beispielsweise als 11 Anfragen gezählt. 1 für dieCreateTable
Anfrage und 10 für die ressourcenbasierte Richtlinie (2 x 5 KB). In ähnlicher Weise wird eine Richtlinie mit einer Größe von 20 KB als 41 Anfragen gezählt. 1 für dieCreateTable
Anfrage und 40 für die ressourcenbasierte Richtlinie (2 x 20 KB).PutResourcePolicy
-
Sie können bis zu 25
PutResourcePolicy
API Anfragen pro Sekunde für eine Gruppe von Tabellen einreichen. Nach einer erfolgreichen Anfrage für eine einzelne Tabelle werden in den folgenden 15 Sekunden keine neuenPutResourcePolicy
Anfragen unterstützt.Die maximale Größe, die für ein ressourcenbasiertes Richtliniendokument unterstützt wird, beträgt 20 KB. DynamoDB zählt Leerzeichen, wenn die Größe einer Richtlinie anhand dieses Grenzwerts berechnet wird.
DeleteResourcePolicy
-
Sie können bis zu 50
DeleteResourcePolicy
API Anfragen pro Sekunde für eine Gruppe von Tabellen einreichen. Nach einer erfolgreichenPutResourcePolicy
Anfrage für eine einzelne Tabelle werden in den folgenden 15 Sekunden keineDeleteResourcePolicy
Anfragen unterstützt.
BatchGetItem
-
Eine einzelne
BatchGetItem
-Operation kann maximal 100 Elemente abrufen. Die Gesamtgröße aller abgerufenen Elemente darf 16 MB nicht überschreiten.
BatchWriteItem
-
Eine einzelne
BatchWriteItem
-Operation kann bis zu 25PutItem
- oderDeleteItem
-Anforderungen umfassen. Die Gesamtgröße aller geschriebenen Elemente darf 16 MB nicht überschreiten.
DescribeStream
-
Sie können
DescribeStream
maximal 10 Mal pro Sekunde anrufen.
DescribeTableReplicaAutoScaling
-
Die Methode
DescribeTableReplicaAutoScaling
unterstützt nur zehn Anforderungen pro Sekunde.
DescribeLimits
-
DescribeLimits
sollte nur gelegentlich aufgerufen werden. Sie müssen mit Drosselungsfehlern rechnen, wenn Sie die Anforderung mehr als einmal pro Minute aufrufen.
DescribeContributorInsights
/ListContributorInsights
/UpdateContributorInsights
-
DescribeContributorInsights
,ListContributorInsights
undUpdateContributorInsights
sollten nur gelegentlich aufgerufen werden. DynamoDB unterstützt für jede dieser Anfragen bis zu fünf Anfragen pro Sekunde. APIs
DescribeTable
/ListTables
/GetResourcePolicy
-
Sie können bis zu 2.500 Anfragen pro Sekunde aus einer Kombination von schreibgeschützten (
DescribeTable
ListTables
, undGetResourcePolicy
) Anfragen auf Steuerungsebene senden. API DieGetResourcePolicy
API hat ein niedriges individuelles Limit von 100 Anfragen pro Sekunde.
Query
-
Der Ergebnissatz einer
Query
ist auf 1 MB pro Aufruf beschränkt. Sie können denLastEvaluatedKey
von der Query-Antwort verwenden, um weitere Ergebnisse abzurufen.
Scan
-
Der Ergebnissatz einer
Scan
ist auf 1 MB pro Aufruf beschränkt. Sie können denLastEvaluatedKey
von der Scan-Antwort verwenden, um weitere Ergebnisse abzurufen.
UpdateKinesisStreamingDestination
-
Bei der Ausführung von
UpdateKinesisStreamingDestination
Vorgängen können Sie innerhalb von 24 Stunden maximal dreimal einen neuen Wert festlegenApproximateCreationDateTimePrecision
.
UpdateTableReplicaAutoScaling
-
Die Methode
UpdateTableReplicaAutoScaling
unterstützt nur zehn Anforderungen pro Sekunde.
UpdateTableTimeToLive
-
Die Methode
UpdateTableTimeToLive
unterstützt nur eine Anforderung zum Aktivieren oder Deaktivieren vonTime to Live (TTL)
pro angegebener Tabelle und Stunde. Es kann bis zu einer Stunde dauern, bis diese Änderung vollständig verarbeitet ist. Alle weiterenUpdateTimeToLive
Aufrufe für dieselbe Tabelle während dieser einstündigen Dauer führen zu einem ValidationException.
Ruhende DynamoDB-Verschlüsselung
Ab dem Zeitpunkt AWS-eigener Schlüssel, an dem die Tabelle erstellt wurde Von AWS verwalteter Schlüssel, können Sie innerhalb eines 24-Stunden-Fensters bis zu viermal pro Tabelle zwischen einem, einem und einem kundenverwalteten Schlüssel wechseln. Wenn in den vorhergehenden 6 Stunden kein Wechsel erfolgt ist, ist ein zusätzlicher Wechsel erlaubt. Dadurch wird die maximale Anzahl an Wechseln pro Tag faktisch auf 8 erhöht (4 Wechsel in den ersten 6 Stunden und ein weiterer Wechsel jeweils für alle folgenden Zeitfenster von 6 Stunden an einem Tag).
Sie können die Verschlüsselungsschlüssel AWS-eigener Schlüssel so oft wie nötig wechseln, um sie zu verwenden, auch wenn das oben genannte Kontingent ausgeschöpft ist.
Es gelten die folgenden Kontingente, sofern Sie keine höheren Werte beantragen. Informationen zur Beantragung einer Erhöhung des Servicekontingents finden Sie unter https://aws.amazon.com/support
Exportieren von Tabellen zu Amazon S3
Es können bis zu 300 gleichzeitige Exportaufgaben oder bis zu insgesamt 100 TB aus allen laufenden Tabellenexporten exportiert werden. Beide Grenzwerte werden überprüft, bevor ein Export in die Warteschlange gestellt wird.
Inkrementeller Export: Bis zu 300 gleichzeitige Jobs oder 100 TB Tabellengröße können in einem Exportfenster zwischen mindestens 15 Minuten und maximal 24 Stunden gleichzeitig exportiert werden.
Backup und Wiederherstellung
Bei der Wiederherstellung über On-Demand-Backups in DynamoDB können Sie bis zu 50 gleichzeitige Wiederherstellungen mit insgesamt 50 TB durchführen. Bei der Wiederherstellung über AWS Backup können Sie bis zu 50 gleichzeitige Wiederherstellungen mit insgesamt 25 TB ausführen. Weitere Informationen über Sicherungen finden Sie unter Backup und Wiederherstellung für DynamoDB.