Kontingente - Amazon Timestream

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Kontingente

In diesem Thema werden aktuelle Kontingente, auch als Limits bezeichnet, in Amazon Timestream für LiveAnalytics beschrieben. Jedes Kontingent gilt pro Region, sofern nicht anders angegeben.

Standardkontingente

Die folgende Tabelle enthält den Timestream für LiveAnalytics Kontingente und die Standardwerte.

displayName Beschreibung defaultValue

Datenbanken pro Konto

Die maximale Anzahl von Datenbanken, die Sie pro AWS-Konto erstellen können.

500

Tabellen pro Konto

Die maximale Anzahl von Tabellen, die Sie pro erstellen können AWS-Konto.

50000

Drosselrate für CRUD APIs

Die maximale Anzahl von Create/Update/List/Describe/Delete database/table/scheduled API Abfrageanfragen, die pro Sekunde und Konto in der aktuellen Region zulässig sind.

1

Geplante Abfragen pro Konto

Die maximale Anzahl von geplanten Abfragen, die Sie pro erstellen können AWS-Konto.

10000

Maximale Anzahl aktiver Magnetspeicherpartitionen

Die maximale Anzahl aktiver Magnetspeicherpartitionen pro Datenbank. Eine Partition kann nach der Aufnahme bis zu sechs Stunden aktiv bleiben.

250

maxQueryTCU Die maximale Anzahl an AbfragenTCUs, die Sie für Ihr Konto festlegen können. 1000

Service Limits

Die folgende Tabelle enthält den Timestream für LiveAnalytics Service-Limits und die Standardwerte. Informationen zum Bearbeiten der Datenspeicherung für eine Tabelle von der Konsole aus finden Sie unter Tabelle bearbeiten.

displayName Beschreibung defaultValue

Künftiger Erfassungszeitraum in Minuten

Die maximale Vorlaufzeit (in Minuten) für Ihre Zeitreihendaten im Vergleich zur aktuellen Systemzeit. Wenn der future Aufnahmezeitraum beispielsweise 15 Minuten beträgt, akzeptiert Timestream for LiveAnalytics Daten, die der aktuellen Systemzeit bis zu 15 Minuten voraus sind.

15

Minimale Aufbewahrungsdauer für In-Memory-Speicher in Stunden

Die minimale Dauer (in Stunden), für die Daten pro Tabelle im Magnetspeicher aufbewahrt werden müssen.

1

Maximale Aufbewahrungsdauer für In-Memory-Speicher in Stunden

Die maximale Dauer (in Stunden), für die Daten pro Tabelle im Magnetspeicher aufbewahrt werden können.

8766

Minimale Aufbewahrungsdauer für Magnetspeicher in Tagen

Die minimale Dauer (in Tagen), für die Daten pro Tabelle im Magnetspeicher aufbewahrt werden müssen.

1

Maximale Aufbewahrungsdauer für Magnetspeicher in Tagen

Die maximale Dauer (in Tagen), für die Daten im Magnetspeicher aufbewahrt werden können. Dieser Wert entspricht 200 Jahren.

73000

Standard-Aufbewahrungsdauer für Magnetspeicher in Tagen

Der Standardwert (in Tagen), für den Daten pro Tabelle im Magnetspeicher aufbewahrt werden. Dieser Wert entspricht 200 Jahren.

73000

Standardmäßige Aufbewahrungsdauer für den Speicherspeicher in Stunden

Die Standarddauer (in Stunden), für die Daten im Speicherspeicher aufbewahrt werden.

6

Dimensionen pro Tabelle

Die maximale Anzahl der Dimensionen pro Tabelle.

128

Kennzahlnamen pro Tabelle

Die maximale Anzahl eindeutiger Kennzahlnamen pro Tabelle.

8192

Größe des Wertpaares aus Dimensionsname und -wert pro Serie

Die maximale Größe des Wertpaares aus Dimensionsname und -wert pro Serie.

2 Kilobyte

Maximale Datensatzgröße

Die maximale Größe eines Datensatzes.

2 Kilobyte

Datensätze pro WriteRecords API Anfrage

Die maximale Anzahl von Datensätzen in einer WriteRecords API Anfrage.

100

Länge des Dimensionsnamens

Die maximale Anzahl von Byte für einen Dimensionsnamen.

60 Byte

Länge des Kennzahlnamens

Die maximale Anzahl von Byte für einen Measure-Namen.

256 Byte

Länge des Datenbanknamens

Die maximale Anzahl von Byte für einen Datenbanknamen.

256 Byte

Länge des Tabellnamens

Die maximale Anzahl von Byte für einen Tabellennamen.

256 Byte

QueryString Länge in KiB

Die maximale Länge (in KiB) einer Abfragezeichenfolge in UTF -8 codierten Zeichen für eine Abfrage.

256

Ausführungsdauer für Abfragen in Stunden

Die maximale Ausführungsdauer (in Stunden) für eine Abfrage. Abfragen, die länger dauern, führen zu einem Timeout.

1

Einblicke in Abfragen Die maximale Anzahl von API Query-Anfragen, die mit aktivierten Query Insights pro Sekunde und Konto in der aktuellen Region zulässig sind. 1

Metadatengröße für Abfrageergebnis

Die maximale Meta-Datengröße für ein Abfrageergebnis.

100 Kilobyte

Datengröße für Abfrageergebnis

Die maximale Datengröße für ein Abfrageergebnis.

5 Gigabyte

Kennzahlen pro Datensatz mit mehreren Kennzahlen

Maximale Anzahl der Kennzahlen pro Datensatz mit mehreren Kennzahlen.

256

Kennzahlenwertgröße pro Datensatz mit mehreren Kennzahlen

Maximale Kennzahlenwertgröße pro Datensatz mit mehreren Kennzahlen.

2048

Eindeutige Kennzahlen in Datensätzen mit mehreren Kennzahlen pro Tabelle

Die eindeutigen Kennzahlen in allen Datensätzen mit mehreren Kennzahlen, die in einer einzigen Tabelle definiert sind.

1024

Timestream-Recheneinheiten (TCUs) pro Konto Das Standardmaximum TCUs pro Konto. 200

Unterstützte Datentypen

In der folgenden Tabelle werden die unterstützten Datentypen für Kennzahl- und Dimensionswerte beschrieben.

Beschreibung Timestream für den Wert LiveAnalytics

Unterstützte Datentypen für Kennzahlwerte.

Big Int, Double, Zeichenfolge, Boolean, Timestamp MULTI

Unterstützte Datentypen für Dimensionswerte.

String

Batch-Laden

Die aktuellen Kontingente, auch als Grenzwerte bezeichnet, beim Laden von Batches lauten wie folgt.

Beschreibung Timestream für den Wert LiveAnalytics

Max. Größe der Batch-Load-Aufgabe

Die maximale Größe von Batch-Load-Aufgaben darf 100 GB nicht überschreiten.

Anzahl der Dateien

Eine Batch-Load-Aufgabe kann nicht mehr als 100 Dateien enthalten.

Maximale Dateigröße

Die maximale Dateigröße in einer Batch-Load-Task darf 5 GB nicht überschreiten.

CSVGröße der Dateizeile

Eine Zeile in einer CSV Datei darf 16 MB nicht überschreiten. Dies ist ein fester Grenzwert, der nicht erhöht werden kann.

Aktive Batch-Load-Aufgaben

Eine Tabelle kann nicht mehr als 5 aktive Batch-Load-Tasks haben und ein Konto darf nicht mehr als 10 aktive Batch-Load-Tasks haben. Timestream for LiveAnalytics drosselt neue Batch-Load-Aufgaben, bis mehr Ressourcen verfügbar sind.

Benennungseinschränkungen:

In der folgenden Tabelle werden Einschränkungen bei der Benennung beschrieben.

Beschreibung Timestream für den Wert LiveAnalytics

Die maximale Länge eines Dimensionsnamens.

60 Byte

Die maximale Länge eines Kennzahlnamens.

256 Byte

Die maximale Länge eines Tabellen- oder Datenbanknamens.

256 Byte

Tabelle und Datenbankname

  • Wir empfehlen Ihnen, nicht zu verwendenSystemkennungen.

  • Kann a-z A-Z 0-9 _ (Unterstrich) - (Bindestrich) enthalten. (Punkt).

  • Alle Namen müssen mit UTF -8 kodiert sein und Groß- und Kleinschreibung beachten.

Anmerkung

Tabellen- und Datenbanknamen werden unter Verwendung der Binärdarstellung UTF -8 verglichen. Das bedeutet, dass beim ASCII Zeichenvergleich zwischen Groß- und Kleinschreibung unterschieden wird.

Name der Maßnahme

  • Darf kein ':' Systemkennungen oder einen Doppelpunkt enthalten.

  • Darf nicht mit einem reservierten Präfix (ts_,measure_value) beginnen.

Anmerkung

Tabellen- und Datenbanknamen werden unter Verwendung der Binärdarstellung UTF -8 verglichen. Das bedeutet, dass beim ASCII Zeichenvergleich zwischen Groß- und Kleinschreibung unterschieden wird.

Name der Dimension

  • Darf keinen Doppelpunkt ':' oder ein doppeltes Anführungszeichen („) enthaltenSystemkennungen.

  • Darf nicht mit einem reservierten Präfix (ts_,measure_value) beginnen.

  • Darf keine Unicode-Zeichen [0,31] enthalten, die hier oder „\ u2028" oder „\ u2029" aufgeführt sind.

Anmerkung

Dimensions- und Kennzahlnamen werden anhand der binären Darstellung -8 verglichen. UTF Das bedeutet, dass beim ASCII Zeichenvergleich zwischen Groß- und Kleinschreibung unterschieden wird.

Alle Spaltennamen

Spaltennamen können nicht dupliziert werden. Da Datensätze mit mehreren Kennzahlen Dimensionen und Kennzahlen als Spalten darstellen, kann der Name einer Dimension nicht mit dem Namen einer Kennzahl identisch sein. Bei den Namen muss die Groß- und Kleinschreibung beachtet werden.

Reservierte Schlüsselwörter

Alle der folgenden sind reservierte Schlüsselwörter:

  • ALTER

  • AND

  • AS

  • BETWEEN

  • BY

  • CASE

  • CAST

  • CONSTRAINT

  • CREATE

  • CROSS

  • CUBE

  • CURRENT_DATE

  • CURRENT_TIME

  • CURRENT_TIMESTAMP

  • CURRENT_USER

  • DEALLOCATE

  • DELETE

  • DESCRIBE

  • DISTINCT

  • DROP

  • ELSE

  • END

  • ESCAPE

  • EXCEPT

  • EXECUTE

  • EXISTS

  • EXTRACT

  • FALSE

  • FOR

  • FROM

  • FULL

  • GROUP

  • GROUPING

  • HAVING

  • IN

  • INNER

  • INSERT

  • INTERSECT

  • INTO

  • IS

  • JOIN

  • LEFT

  • LIKE

  • LOCALTIME

  • LOCALTIMESTAMP

  • NATURAL

  • NORMALIZE

  • NOT

  • NULL

  • ON

  • ODER

  • ORDER

  • OUTER

  • PREPARE

  • RECURSIVE

  • RIGHT

  • ROLLUP

  • SELECT

  • TABLE

  • THEN

  • TRUE

  • UESCAPE

  • UNION

  • UNNEST

  • USING

  • VALUES

  • WHEN

  • WHERE

  • WITH

Systemkennungen

Wir behalten uns die Spaltennamen „measure_value“, „ts_non_existent_col“ und „time“ als Timestream für Systemkennungen vor. LiveAnalytics Außerdem dürfen Spaltennamen nicht mit „ts_“ oder „measure_name“ beginnen. Bei Systemkennungen wird zwischen Groß- und Kleinschreibung unterschieden. Identifier wurden anhand der binären Darstellung von UTF -8 verglichen. Das bedeutet, dass beim Vergleich von Bezeichnern zwischen Groß- und Kleinschreibung unterschieden wird.

Anmerkung

Systemkennungen dürfen nicht für Dimensions- oder Kennzahlnamen verwendet werden. Wir empfehlen, keine Systemkennungen für Datenbank- oder Tabellennamen zu verwenden.

UNLOAD

Informationen zu den Einschränkungen im Zusammenhang mit dem UNLOAD Befehl finden Sie unter Verwenden UNLOAD zum Exportieren von Abfrageergebnissen aus Timestream nach S3.