Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Kontingente
In diesem Thema werden aktuelle Kontingente, auch als Limits bezeichnet, in Amazon Timestream für LiveAnalytics beschrieben. Jedes Kontingent gilt pro Region, sofern nicht anders angegeben.
Themen
Standardkontingente
Die folgende Tabelle enthält den Timestream für LiveAnalytics Kontingente und die Standardwerte.
displayName | Beschreibung | defaultValue |
---|---|---|
Datenbanken pro Konto |
Die maximale Anzahl von Datenbanken, die Sie pro AWS-Konto erstellen können. |
500 |
Tabellen pro Konto |
Die maximale Anzahl von Tabellen, die Sie pro erstellen können AWS-Konto. |
50000 |
Drosselrate für CRUD APIs |
Die maximale Anzahl von Create/Update/List/Describe/Delete database/table/scheduled API Abfrageanfragen, die pro Sekunde und Konto in der aktuellen Region zulässig sind. |
1 |
Geplante Abfragen pro Konto |
Die maximale Anzahl von geplanten Abfragen, die Sie pro erstellen können AWS-Konto. |
10000 |
Maximale Anzahl aktiver Magnetspeicherpartitionen |
Die maximale Anzahl aktiver Magnetspeicherpartitionen pro Datenbank. Eine Partition kann nach der Aufnahme bis zu sechs Stunden aktiv bleiben. |
250 |
maxQueryTCU | Die maximale Anzahl an AbfragenTCUs, die Sie für Ihr Konto festlegen können. | 1000 |
Service Limits
Die folgende Tabelle enthält den Timestream für LiveAnalytics Service-Limits und die Standardwerte. Informationen zum Bearbeiten der Datenspeicherung für eine Tabelle von der Konsole aus finden Sie unter Tabelle bearbeiten.
displayName | Beschreibung | defaultValue |
---|---|---|
Künftiger Erfassungszeitraum in Minuten |
Die maximale Vorlaufzeit (in Minuten) für Ihre Zeitreihendaten im Vergleich zur aktuellen Systemzeit. Wenn der future Aufnahmezeitraum beispielsweise 15 Minuten beträgt, akzeptiert Timestream for LiveAnalytics Daten, die der aktuellen Systemzeit bis zu 15 Minuten voraus sind. |
15 |
Minimale Aufbewahrungsdauer für In-Memory-Speicher in Stunden |
Die minimale Dauer (in Stunden), für die Daten pro Tabelle im Magnetspeicher aufbewahrt werden müssen. |
1 |
Maximale Aufbewahrungsdauer für In-Memory-Speicher in Stunden |
Die maximale Dauer (in Stunden), für die Daten pro Tabelle im Magnetspeicher aufbewahrt werden können. |
8766 |
Minimale Aufbewahrungsdauer für Magnetspeicher in Tagen |
Die minimale Dauer (in Tagen), für die Daten pro Tabelle im Magnetspeicher aufbewahrt werden müssen. |
1 |
Maximale Aufbewahrungsdauer für Magnetspeicher in Tagen |
Die maximale Dauer (in Tagen), für die Daten im Magnetspeicher aufbewahrt werden können. Dieser Wert entspricht 200 Jahren. |
73000 |
Standard-Aufbewahrungsdauer für Magnetspeicher in Tagen |
Der Standardwert (in Tagen), für den Daten pro Tabelle im Magnetspeicher aufbewahrt werden. Dieser Wert entspricht 200 Jahren. |
73000 |
Standardmäßige Aufbewahrungsdauer für den Speicherspeicher in Stunden |
Die Standarddauer (in Stunden), für die Daten im Speicherspeicher aufbewahrt werden. |
6 |
Dimensionen pro Tabelle |
Die maximale Anzahl der Dimensionen pro Tabelle. |
128 |
Kennzahlnamen pro Tabelle |
Die maximale Anzahl eindeutiger Kennzahlnamen pro Tabelle. |
8192 |
Größe des Wertpaares aus Dimensionsname und -wert pro Serie |
Die maximale Größe des Wertpaares aus Dimensionsname und -wert pro Serie. |
2 Kilobyte |
Maximale Datensatzgröße |
Die maximale Größe eines Datensatzes. |
2 Kilobyte |
Datensätze pro WriteRecords API Anfrage |
Die maximale Anzahl von Datensätzen in einer WriteRecords API Anfrage. |
100 |
Länge des Dimensionsnamens |
Die maximale Anzahl von Byte für einen Dimensionsnamen. |
60 Byte |
Länge des Kennzahlnamens |
Die maximale Anzahl von Byte für einen Measure-Namen. |
256 Byte |
Länge des Datenbanknamens |
Die maximale Anzahl von Byte für einen Datenbanknamen. |
256 Byte |
Länge des Tabellnamens |
Die maximale Anzahl von Byte für einen Tabellennamen. |
256 Byte |
QueryString Länge in KiB |
Die maximale Länge (in KiB) einer Abfragezeichenfolge in UTF -8 codierten Zeichen für eine Abfrage. |
256 |
Ausführungsdauer für Abfragen in Stunden |
Die maximale Ausführungsdauer (in Stunden) für eine Abfrage. Abfragen, die länger dauern, führen zu einem Timeout. |
1 |
Einblicke in Abfragen | Die maximale Anzahl von API Query-Anfragen, die mit aktivierten Query Insights pro Sekunde und Konto in der aktuellen Region zulässig sind. | 1 |
Metadatengröße für Abfrageergebnis |
Die maximale Meta-Datengröße für ein Abfrageergebnis. |
100 Kilobyte |
Datengröße für Abfrageergebnis |
Die maximale Datengröße für ein Abfrageergebnis. |
5 Gigabyte |
Kennzahlen pro Datensatz mit mehreren Kennzahlen |
Maximale Anzahl der Kennzahlen pro Datensatz mit mehreren Kennzahlen. |
256 |
Kennzahlenwertgröße pro Datensatz mit mehreren Kennzahlen |
Maximale Kennzahlenwertgröße pro Datensatz mit mehreren Kennzahlen. |
2048 |
Eindeutige Kennzahlen in Datensätzen mit mehreren Kennzahlen pro Tabelle |
Die eindeutigen Kennzahlen in allen Datensätzen mit mehreren Kennzahlen, die in einer einzigen Tabelle definiert sind. |
1024 |
Timestream-Recheneinheiten (TCUs) pro Konto | Das Standardmaximum TCUs pro Konto. | 200 |
Unterstützte Datentypen
In der folgenden Tabelle werden die unterstützten Datentypen für Kennzahl- und Dimensionswerte beschrieben.
Beschreibung | Timestream für den Wert LiveAnalytics |
---|---|
Unterstützte Datentypen für Kennzahlwerte. |
Big Int, Double, Zeichenfolge, Boolean, Timestamp MULTI |
Unterstützte Datentypen für Dimensionswerte. |
String |
Batch-Laden
Die aktuellen Kontingente, auch als Grenzwerte bezeichnet, beim Laden von Batches lauten wie folgt.
Beschreibung | Timestream für den Wert LiveAnalytics |
---|---|
Max. Größe der Batch-Load-Aufgabe |
Die maximale Größe von Batch-Load-Aufgaben darf 100 GB nicht überschreiten. |
Anzahl der Dateien |
Eine Batch-Load-Aufgabe kann nicht mehr als 100 Dateien enthalten. |
Maximale Dateigröße |
Die maximale Dateigröße in einer Batch-Load-Task darf 5 GB nicht überschreiten. |
CSVGröße der Dateizeile |
Eine Zeile in einer CSV Datei darf 16 MB nicht überschreiten. Dies ist ein fester Grenzwert, der nicht erhöht werden kann. |
Aktive Batch-Load-Aufgaben |
Eine Tabelle kann nicht mehr als 5 aktive Batch-Load-Tasks haben und ein Konto darf nicht mehr als 10 aktive Batch-Load-Tasks haben. Timestream for LiveAnalytics drosselt neue Batch-Load-Aufgaben, bis mehr Ressourcen verfügbar sind. |
Benennungseinschränkungen:
In der folgenden Tabelle werden Einschränkungen bei der Benennung beschrieben.
Beschreibung | Timestream für den Wert LiveAnalytics |
---|---|
Die maximale Länge eines Dimensionsnamens. |
60 Byte |
Die maximale Länge eines Kennzahlnamens. |
256 Byte |
Die maximale Länge eines Tabellen- oder Datenbanknamens. |
256 Byte |
Tabelle und Datenbankname |
AnmerkungTabellen- und Datenbanknamen werden unter Verwendung der Binärdarstellung UTF -8 verglichen. Das bedeutet, dass beim ASCII Zeichenvergleich zwischen Groß- und Kleinschreibung unterschieden wird. |
Name der Maßnahme |
AnmerkungTabellen- und Datenbanknamen werden unter Verwendung der Binärdarstellung UTF -8 verglichen. Das bedeutet, dass beim ASCII Zeichenvergleich zwischen Groß- und Kleinschreibung unterschieden wird. |
Name der Dimension |
AnmerkungDimensions- und Kennzahlnamen werden anhand der binären Darstellung -8 verglichen. UTF Das bedeutet, dass beim ASCII Zeichenvergleich zwischen Groß- und Kleinschreibung unterschieden wird. |
Alle Spaltennamen |
Spaltennamen können nicht dupliziert werden. Da Datensätze mit mehreren Kennzahlen Dimensionen und Kennzahlen als Spalten darstellen, kann der Name einer Dimension nicht mit dem Namen einer Kennzahl identisch sein. Bei den Namen muss die Groß- und Kleinschreibung beachtet werden. |
Reservierte Schlüsselwörter
Alle der folgenden sind reservierte Schlüsselwörter:
-
ALTER
-
AND
-
AS
-
BETWEEN
-
BY
-
CASE
-
CAST
-
CONSTRAINT
-
CREATE
-
CROSS
-
CUBE
-
CURRENT_DATE
-
CURRENT_TIME
-
CURRENT_TIMESTAMP
-
CURRENT_USER
-
DEALLOCATE
-
DELETE
-
DESCRIBE
-
DISTINCT
-
DROP
-
ELSE
-
END
-
ESCAPE
-
EXCEPT
-
EXECUTE
-
EXISTS
-
EXTRACT
-
FALSE
-
FOR
-
FROM
-
FULL
-
GROUP
-
GROUPING
-
HAVING
-
IN
-
INNER
-
INSERT
-
INTERSECT
-
INTO
-
IS
-
JOIN
-
LEFT
-
LIKE
-
LOCALTIME
-
LOCALTIMESTAMP
-
NATURAL
-
NORMALIZE
-
NOT
-
NULL
-
ON
-
ODER
-
ORDER
-
OUTER
-
PREPARE
-
RECURSIVE
-
RIGHT
-
ROLLUP
-
SELECT
-
TABLE
-
THEN
-
TRUE
-
UESCAPE
-
UNION
-
UNNEST
-
USING
-
VALUES
-
WHEN
-
WHERE
-
WITH
Systemkennungen
Wir behalten uns die Spaltennamen „measure_value“, „ts_non_existent_col“ und „time“ als Timestream für Systemkennungen vor. LiveAnalytics Außerdem dürfen Spaltennamen nicht mit „ts_“ oder „measure_name“ beginnen. Bei Systemkennungen wird zwischen Groß- und Kleinschreibung unterschieden. Identifier wurden anhand der binären Darstellung von UTF -8 verglichen. Das bedeutet, dass beim Vergleich von Bezeichnern zwischen Groß- und Kleinschreibung unterschieden wird.
Anmerkung
Systemkennungen dürfen nicht für Dimensions- oder Kennzahlnamen verwendet werden. Wir empfehlen, keine Systemkennungen für Datenbank- oder Tabellennamen zu verwenden.
UNLOAD
Informationen zu den Einschränkungen im Zusammenhang mit dem UNLOAD
Befehl finden Sie unter Verwenden UNLOAD zum Exportieren von Abfrageergebnissen aus Timestream nach S3.