

Für ähnliche Funktionen wie Amazon Timestream für sollten Sie Amazon Timestream for LiveAnalytics InfluxDB in Betracht ziehen. Es bietet eine vereinfachte Datenaufnahme und Antwortzeiten im einstelligen Millisekundenbereich für Analysen in Echtzeit. [Erfahren](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html) Sie hier mehr.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Verwenden Sie Batch-Load in Timestream für LiveAnalytics
<a name="batch-load"></a>

Mit *Batch-Load* für Amazon Timestream for LiveAnalytics können Sie in Amazon S3 gespeicherte CSV-Dateien stapelweise in Timestream aufnehmen. Mit dieser neuen Funktion können Sie Ihre Daten in Timestream speichern, LiveAnalytics ohne sich auf andere Tools verlassen oder benutzerdefinierten Code schreiben zu müssen. Sie können Batch-Load verwenden, um Daten mit flexiblen Wartezeiten aufzufüllen, z. B. Daten, die nicht sofort für Abfragen oder Analysen benötigt werden. 

Sie können Batch-Load-Aufgaben erstellen, indem Sie die AWS-Managementkonsole AWS CLI, und die verwenden. AWS SDKs Weitere Informationen finden Sie unter [Verwenden von Batch-Load mit der Konsole](batch-load-using-console.md), [Verwenden von Batch-Load mit AWS CLI](batch-load-using-cli.md) und [Verwenden Sie Batch-Load mit dem AWS SDKs](batch-load-using-sdk.md).

Zusätzlich zum Batch-Load können Sie mit dem WriteRecords API-Vorgang mehrere Datensätze gleichzeitig schreiben. Hinweise zur Verwendung finden Sie unter[Wählen Sie zwischen WriteRecords API-Operation und Batch-Load](writes.writes-or-batch-load.md).

**Topics**
+ [Konzepte zum Laden von Batch in Timestream](batch-load-concepts.md)
+ [Voraussetzungen für das Batch-Laden](batch-load-prerequisites.md)
+ [Bewährte Methoden zum Laden von Batch](batch-load-best-practices.md)
+ [Eine Batch-Load-Datendatei wird vorbereitet](batch-load-preparing-data-file.md)
+ [Datenmodellzuordnungen für das Batch-Laden](batch-load-data-model-mappings.md)
+ [Verwenden von Batch-Load mit der Konsole](batch-load-using-console.md)
+ [Verwenden von Batch-Load mit AWS CLI](batch-load-using-cli.md)
+ [Verwenden Sie Batch-Load mit dem AWS SDKs](batch-load-using-sdk.md)
+ [Verwenden von Batch-Load-Fehlerberichten](batch-load-using-error-reports.md)

# Konzepte zum Laden von Batch in Timestream
<a name="batch-load-concepts"></a>

Sehen Sie sich die folgenden Konzepte an, um die Batch-Load-Funktionalität besser zu verstehen. 

**Batch-Load-Aufgabe** — Die Aufgabe, die Ihre Quelldaten und Ihr Ziel in Amazon Timestream definiert. Sie geben zusätzliche Konfigurationen wie das Datenmodell an, wenn Sie die Batch-Load-Aufgabe erstellen. Sie können Batch-Load-Tasks über die AWS-Managementkonsole AWS CLI, die und die erstellen AWS SDKs. 

**Importziel** — Die Zieldatenbank und die Zieltabelle in Timestream. Hinweise zum Erstellen von Datenbanken und Tabellen finden Sie unter [Erstellen einer -Datenbank](console_timestream.md#console_timestream.db.using-console) und[Erstellen einer Tabelle](console_timestream.md#console_timestream.table.using-console).

**Datenquelle** — Die CSV-Quelldatei, die in einem S3-Bucket gespeichert ist. Hinweise zur Vorbereitung der Datendatei finden Sie unter[Eine Batch-Load-Datendatei wird vorbereitet](batch-load-preparing-data-file.md). Informationen zu den S3-Preisen finden Sie unter [Amazon S3 S3-Preise](https://aws.amazon.com/s3/pricing/).

**Batch-Load-Fehlerbericht** — Ein Bericht, der Informationen über die Fehler einer Batch-Load-Aufgabe speichert. Sie definieren den S3-Speicherort für Batch-Load-Fehlerberichte als Teil einer Batch-Load-Aufgabe. Informationen zu den Informationen in den Berichten finden Sie unter[Verwenden von Batch-Load-Fehlerberichten](batch-load-using-error-reports.md).

**Datenmodell-Mapping** — Eine Batch-Load-Zuordnung für Zeit, Dimensionen und Kennzahlen, die von einer Datenquelle an einem S3-Standort zu einem Ziel-Timestream für eine LiveAnalytics Tabelle übertragen wird. Weitere Informationen finden Sie unter [Datenmodellzuordnungen für das Batch-Laden](batch-load-data-model-mappings.md).

# Voraussetzungen für das Batch-Laden
<a name="batch-load-prerequisites"></a>

Dies ist eine Liste der Voraussetzungen für die Verwendung von Batch-Load. Bewährte Methoden finden Sie unter [Bewährte Methoden zum Laden von Batch](batch-load-best-practices.md).
+ Batch-Load-Quelldaten werden in Amazon S3 im CSV-Format mit Headern gespeichert.
+ Für jeden Amazon S3 S3-Quell-Bucket müssen Sie in einer beigefügten Richtlinie über die folgenden Berechtigungen verfügen:

  ```
  "s3:GetObject",
  "s3:GetBucketAcl"
  "s3:ListBucket"
  ```

  Ebenso müssen Sie für jeden Amazon S3 S3-Ausgabe-Bucket, in den Berichte geschrieben werden, in einer angehängten Richtlinie über die folgenden Berechtigungen verfügen:

  ```
  "s3:PutObject",
  "s3:GetBucketAcl"
  ```

  Beispiel:

------
#### [ JSON ]

****  

  ```
  {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
          {
              "Action": [
                  "s3:GetObject",
                  "s3:GetBucketAcl",
                  "s3:ListBucket"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-source-bucket1\u201d",
                  "arn:aws:s3:::amzn-s3-demo-source-bucket2\u201d"
              ],
              "Effect": "Allow"
          },
          {
              "Action": [
                  "s3:PutObject",
                  "s3:GetBucketAcl"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-destination-bucket\u201d"
              ],
              "Effect": "Allow"
          }
      ]
  }
  ```

------
+ Timestream for LiveAnalytics analysiert die CSV-Datei, indem es die im Datenmodell bereitgestellten Informationen den CSV-Headern zuordnet. Die Daten müssen eine Spalte haben, die den Zeitstempel darstellt, mindestens eine Dimensionsspalte und mindestens eine Kennzahlspalte.
+ Die beim Batch-Load verwendeten S3-Buckets müssen sich in derselben Region befinden und aus demselben Konto stammen wie der Timestream für die LiveAnalytics Tabelle, der beim Batch-Load verwendet wird.
+ Bei der `timestamp` Spalte muss es sich um einen langen Datentyp handeln, der die Zeit seit der Unix-Epoche darstellt. Der Zeitstempel `2021-03-25T08:45:21Z` würde beispielsweise als dargestellt werden. `1616661921` Timestream unterstützt Sekunden, Millisekunden, Mikrosekunden und Nanosekunden für die Genauigkeit des Zeitstempels. Wenn Sie die Abfragesprache verwenden, können Sie zwischen Formaten mit Funktionen wie konvertieren. `to_unixtime` Weitere Informationen finden Sie unter [Funktionen für Datum und Uhrzeit](date-time-functions.md).
+ Timestream unterstützt den String-Datentyp für Dimensionswerte. Es unterstützt die Datentypen Long, Double, String und Boolean für Kennzahlspalten.

Informationen zu Ladebeschränkungen und Kontingenten für Batches finden Sie unter. [Batch-Laden](ts-limits.md#limits.batch-load)

# Bewährte Methoden zum Laden von Batch
<a name="batch-load-best-practices"></a>

Die Chargenbeladung funktioniert am besten (hoher Durchsatz), wenn die folgenden Bedingungen und Empfehlungen eingehalten werden:

1. CSV-Dateien, die zur Aufnahme eingereicht werden, sind klein, insbesondere mit einer Dateigröße von 100 MB—1 GB, um die Parallelität und Geschwindigkeit der Aufnahme zu verbessern.

1. Vermeiden Sie es, während des Batch-Ladevorgangs gleichzeitig Daten in dieselbe Tabelle aufzunehmen (z. B. mithilfe des WriteRecords API-Vorgangs oder einer geplanten Abfrage). Dies kann zu Drosselungen führen und der Batch-Ladevorgang schlägt fehl.

1. Fügen Sie dem S3-Bucket, der beim Batch-Load verwendet wird, keine Dateien hinzu, ändern oder entfernen Sie keine Dateien aus dem S3-Bucket, während die Batch-Load-Task ausgeführt wird.

1. Löschen oder entziehen Sie keine Berechtigungen für Tabellen oder Quellen und melden Sie keine S3-Buckets, die geplante oder laufende Batch-Ladeaufgaben enthalten.

1. Wenn Sie Daten mit einem Satz von Dimensionswerten mit hoher Kardinalität aufnehmen, folgen Sie den Anweisungen unter. [Empfehlungen für die Partitionierung von Datensätzen mit mehreren Kennzahlen](data-modeling.md#data-modeling-multi-measure-partitioning)

1. Stellen Sie sicher, dass Sie die Daten auf Richtigkeit testen, indem Sie eine kleine Datei einreichen. Alle beim Batch-Load eingereichten Daten werden Ihnen unabhängig von ihrer Richtigkeit in Rechnung gestellt. Weitere Informationen zur Preisgestaltung finden Sie unter [Amazon Timestream Timestream-Preise](https://aws.amazon.com/timestream/pricing/).

1. Nehmen Sie eine Batch-Ladeaufgabe nicht wieder auf, es sei denn, Sie `ActiveMagneticStorePartitions` haben weniger als 250. Der Job ist möglicherweise gedrosselt und schlägt fehl. Wenn Sie mehrere Jobs gleichzeitig für dieselbe Datenbank einreichen, sollte sich die Anzahl verringern.

Im Folgenden finden Sie bewährte Methoden für Konsolen:

1. Verwenden Sie den [Builder](batch-load-using-console.md#batch-load-using-visual-builder) nur für eine einfachere Datenmodellierung, bei der nur ein Kennzahlname für Datensätze mit mehreren Kennzahlen verwendet wird.

1. Verwenden Sie JSON für eine komplexere Datenmodellierung. Verwenden Sie beispielsweise JSON, wenn Sie bei der Verwendung von Datensätzen mit mehreren Kennzahlen mehrere Kennzahlnamen verwenden. 

Weitere Informationen zu LiveAnalytics Best Practices für Timestream finden Sie unter. [Best Practices](best-practices.md)

# Eine Batch-Load-Datendatei wird vorbereitet
<a name="batch-load-preparing-data-file"></a>

Eine Quelldatendatei hat durch Trennzeichen getrennte Werte. Der spezifischere Begriff, kommagetrennte Werte (CSV), wird allgemein verwendet. Zu den gültigen Spaltentrennzeichen gehören Kommas und senkrechte Linien. Datensätze werden durch neue Zeilen getrennt. Dateien müssen in Amazon S3 gespeichert werden. Wenn Sie eine neue Batch-Load-Task erstellen, wird der Speicherort der Quelldaten durch einen ARN für die Datei angegeben. Eine Datei enthält Header. Eine Spalte steht für den Zeitstempel. Mindestens eine weitere Spalte steht für eine Kennzahl.

Die beim Batch-Load verwendeten S3-Buckets müssen sich in derselben Region befinden wie der Timestream für die LiveAnalytics Tabelle, die beim Batch-Load verwendet wird. Fügen Sie dem beim Batch-Load verwendeten S3-Bucket keine Dateien hinzu oder entfernen Sie keine Dateien aus diesem, nachdem die Batch-Load-Aufgabe gesendet wurde. Informationen zur Arbeit mit S3-Buckets finden Sie unter [Erste Schritte mit Amazon S3](https://docs.aws.amazon.com/AmazonS3/latest/userguide/GetStartedWithS3.html).

**Anmerkung**  
CSV-Dateien, die von einigen Anwendungen wie Excel generiert werden, enthalten möglicherweise eine Byte Order Mark (BOM), die mit der erwarteten Kodierung in Konflikt steht. Timestream für LiveAnalytics Batch-Load-Aufgaben, die auf eine CSV-Datei mit einer Stückliste verweisen, lösen einen Fehler aus, wenn sie programmgesteuert verarbeitet werden. Um dies zu vermeiden, können Sie die BOM entfernen, bei der es sich um ein unsichtbares Zeichen handelt.  
Sie können die Datei beispielsweise aus einer Anwendung wie Notepad\$1\$1 speichern, mit der Sie eine neue Kodierung angeben können. Sie können auch eine programmatische Option verwenden, die die erste Zeile liest, das Zeichen aus der Zeile entfernt und den neuen Wert über die erste Zeile in der Datei schreibt.  
Beim Speichern aus Excel gibt es mehrere CSV-Optionen. Das Speichern mit einer anderen CSV-Option kann das beschriebene Problem verhindern. Sie sollten das Ergebnis jedoch überprüfen, da sich eine Änderung der Kodierung auf einige Zeichen auswirken kann.

## Parameter des CSV-Formats
<a name="batch-load-data-file-options"></a>

Sie verwenden Escape-Zeichen, wenn Sie einen Wert darstellen, der ansonsten durch die Formatparameter reserviert ist. Wenn das Anführungszeichen beispielsweise ein doppeltes Anführungszeichen ist, setzen Sie das Escape-Zeichen vor das doppelte Anführungszeichen, um ein doppeltes Anführungszeichen in den Daten darzustellen.

Informationen darüber, wann Sie diese angeben sollten, wenn Sie eine Batch-Load-Task erstellen, finden Sie unter[Erstellen Sie eine Batch-Load-Aufgabe](batch-load-using-console.md#console_timestream.create-batch-load.using-console).


| Parameter | Optionen | 
| --- | --- | 
| Spaltentrennzeichen | (Komma (',') \$1 Pipe ('\$1') \$1 Semikolon (';') \$1 Tab ('/t') \$1 Leerzeichen ('')) | 
| Escape-Zeichen | Keine | 
| Charakter zitieren | Konsole: (Doppeltes Anführungszeichen („) \$1 Einfaches Anführungszeichen (')) | 
| Null-Wert | Leerzeichen ('') | 
| Leerraum abschneiden | Konsole: (Nein \$1 Ja) | 

# Datenmodellzuordnungen für das Batch-Laden
<a name="batch-load-data-model-mappings"></a>

Im Folgenden wird das Schema für Datenmodellzuordnungen beschrieben und ein Beispiel gegeben.

## Schema für Datenmodellzuordnungen
<a name="batch-load-data-model-mappings-schema"></a>

Die `CreateBatchLoadTask` Anforderungssyntax und ein `BatchLoadTaskDescription` Objekt, das durch einen Aufruf zurückgegeben wird, um ein `DataModelConfiguration` Objekt `DescribeBatchLoadTask` einzuschließen, das das `DataModel` für das Batch-Laden einschließt. Das `DataModel` definiert Zuordnungen von Quelldaten, die im CSV-Format an einem S3-Speicherort gespeichert sind, zu einem Ziel-Timestream für LiveAnalytics Datenbank und Tabelle. 

Das `TimeColumn` Feld gibt den Speicherort der Quelldaten für den Wert an, der der `time` Spalte der Zieltabelle in Timestream for zugeordnet werden soll. LiveAnalytics Das `TimeUnit` gibt die Einheit für`TimeColumn`, an und kann eine von`MILLISECONDS`, `SECONDS``MICROSECONDS`, oder sein. `NANOSECONDS` Es gibt auch Zuordnungen für Dimensionen und Kennzahlen. Dimensionszuordnungen bestehen aus Quellspalten und Zielfeldern. 

Weitere Informationen finden Sie unter [DimensionMapping](https://docs.aws.amazon.com/timestream/latest/developerguide/API_DimensionMapping). Die Zuordnungen für Kennzahlen haben zwei Optionen: und. `MixedMeasureMappings` `MultiMeasureMappings`

Zusammenfassend lässt sich sagen, dass a Zuordnungen von einer Datenquelle an einem S3-Standort zu einem Ziel-Timestream für die folgende Tabelle `DataModel` enthält. LiveAnalytics 
+ Zeit
+ Dimensionen
+ Maßnahmen

Wenn möglich, empfehlen wir, dass Sie Messdaten Datensätzen mit mehreren Messwerten in Timestream for zuordnen. LiveAnalytics Informationen zu den Vorteilen von Datensätzen mit mehreren Kennzahlen finden Sie unter. [Datensätze mit mehreren Messwerten](writes.md#writes.writing-data-multi-measure) 

Wenn mehrere Kennzahlen in den Quelldaten in einer Zeile gespeichert sind, können Sie diese mehreren Kennzahlen zur Verwendung den Datensätzen mit mehreren Kennzahlen in Timestream zuordnen. LiveAnalytics `MultiMeasureMappings` Wenn es Werte gibt, die einem Datensatz mit einer einzigen Kennzahl zugeordnet werden müssen, können Sie Folgendes verwenden. `MixedMeasureMappings` 

`MixedMeasureMappings`und `MultiMeasureMappings` beide beinhalten`MultiMeasureAttributeMappings`. Datensätze mit mehreren Messwerten werden unabhängig davon unterstützt, ob Datensätze mit einer einzigen Kennzahl benötigt werden.

Wenn in Timestream for nur Zieldatensätze mit mehreren Kennzahlen benötigt werden LiveAnalytics, können Sie Kennzahlzuordnungen in der folgenden Struktur definieren.

```
CreateBatchLoadTask
    MeasureNameColumn
    MultiMeasureMappings
        TargetMultiMeasureName
        MultiMeasureAttributeMappings array
```

**Anmerkung**  
Wir empfehlen, wann immer möglich zu verwenden. `MultiMeasureMappings`

Wenn in Timestream für Einzelkennzahlen Zieldatensätze benötigt werden LiveAnalytics, können Sie Kennzahlzuordnungen in der folgenden Struktur definieren.

```
CreateBatchLoadTask
    MeasureNameColumn
    MixedMeasureMappings array
        MixedMeasureMapping
            MeasureName
            MeasureValueType
            SourceColumn
            TargetMeasureName
            MultiMeasureAttributeMappings array
```

Wenn Sie es verwenden`MultiMeasureMappings`, ist das `MultiMeasureAttributeMappings` Array immer erforderlich. Wenn Sie das `MixedMeasureMappings` Array verwenden, `MeasureValueType` ist es `MULTI` dafür erforderlich`MixedMeasureMapping`, wenn es für ein bestimmtes Objekt `MultiMeasureAttributeMappings` ist`MixedMeasureMapping`. `MeasureValueType`Gibt andernfalls den Messtyp für den Datensatz mit einer einzelnen Kennzahl an.

In beiden Fällen ist eine Reihe von `MultiMeasureAttributeMapping` verfügbaren verfügbar. Sie definieren die Zuordnungen zu Datensätzen mit mehreren Kennzahlen jeweils `MultiMeasureAttributeMapping` wie folgt:

`SourceColumn`  
Die Spalte in den Quelldaten, die sich in Amazon S3 befindet.

`TargetMultiMeasureAttributeName`  
Der Name des Zielnamens für mehrere Kennzahlen in der Zieltabelle. Diese Eingabe ist erforderlich, wenn sie nicht angegeben `MeasureNameColumn` wird. Wenn angegeben, `MeasureNameColumn` wird der Wert aus dieser Spalte als Name für mehrere Kennzahlen verwendet.

`MeasureValueType`  
Einer von`DOUBLE`, `BIGINT` `BOOLEAN``VARCHAR`, oder`TIMESTAMP`.

## Datenmodellzuordnungen mit Beispiel `MultiMeasureMappings`
<a name="batch-load-data-model-mappings-example-multi"></a>

In diesem Beispiel wird die Zuordnung zu Datensätzen mit mehreren Kennzahlen demonstriert, der bevorzugte Ansatz, bei dem jeder Messwert in einer eigenen Spalte gespeichert wird. Sie können ein CSV-Beispiel unter [Beispiel-CSV](samples/batch-load-sample-file.csv.zip) herunterladen. Das Beispiel hat die folgenden Überschriften, die einer Zielspalte in einer LiveAnalytics Timestream-für-Tabelle zugeordnet werden können.
+ `time`
+ `measure_name`
+ `region`
+ `location`
+ `hostname`
+ `memory_utilization`
+ `cpu_utilization`

Identifizieren Sie die `measure_name` Spalten `time` und in der CSV-Datei. In diesem Fall werden diese direkt dem Timestream für LiveAnalytics Tabellenspalten mit demselben Namen zugeordnet.
+ `time`ordnet zu `time`
+ `measure_name`ordnet zu `measure_name` (oder dem von Ihnen ausgewählten Wert)

Wenn Sie die API verwenden, geben Sie `time` in dem `TimeColumn` Feld einen unterstützten Wert für die Zeiteinheit an, z. B. `MILLISECONDS` im `TimeUnit` Feld. Diese entsprechen dem **Quellspaltennamen und der** **Timestamp-Zeiteingabe** in der Konsole. Sie können Datensätze gruppieren oder partitionieren, indem Sie `measure_name` das verwenden, was mit dem `MeasureNameColumn` Schlüssel definiert ist.

In der Stichprobe `hostname` sind `region``location`,, und Dimensionen. Dimensionen werden einer Reihe von `DimensionMapping` Objekten zugeordnet.

Bei Kennzahlen `TargetMultiMeasureAttributeName` wird der Wert zu einer Spalte in der Timestream-For-Tabelle. LiveAnalytics Sie können den gleichen Namen wie in diesem Beispiel beibehalten. Oder Sie können einen neuen angeben. `MeasureValueType`ist einer von `DOUBLE``BIGINT`,`BOOLEAN`,`VARCHAR`, oder`TIMESTAMP`. 

```
{
  "TimeColumn": "time",
  "TimeUnit": "MILLISECONDS",
  "DimensionMappings": [
    {
      "SourceColumn": "region",
      "DestinationColumn": "region"
    },
    {
      "SourceColumn": "location",
      "DestinationColumn": "location"
    },
    {
      "SourceColumn": "hostname",
      "DestinationColumn": "hostname"
    }
  ],
  "MeasureNameColumn": "measure_name",
  "MultiMeasureMappings": {
    "MultiMeasureAttributeMappings": [
      {
        "SourceColumn": "memory_utilization",
        "TargetMultiMeasureAttributeName": "memory_utilization",
        "MeasureValueType": "DOUBLE"
      },
      {
        "SourceColumn": "cpu_utilization",
        "TargetMultiMeasureAttributeName": "cpu_utilization",
        "MeasureValueType": "DOUBLE"
      }
    ]
  }
}
```

![\[Visual builder interface showing column mappings for timestream data attributes and types.\]](http://docs.aws.amazon.com/de_de/timestream/latest/developerguide/images/column-mapping.jpg)


## Datenmodellzuordnungen mit Beispiel `MixedMeasureMappings`
<a name="batch-load-data-model-mappings-example-mixed"></a>

Wir empfehlen, diesen Ansatz nur zu verwenden, wenn Sie Datensätze mit einer einzigen Kennzahl in Timestream for zuordnen müssen. LiveAnalytics

# Verwenden von Batch-Load mit der Konsole
<a name="batch-load-using-console"></a>

Im Folgenden finden Sie die Schritte zur Verwendung von Batch Load mit dem AWS-Managementkonsole. Sie können eine Beispiel-CSV unter [Beispiel-CSV](samples/batch-load-sample-file.csv.zip) herunterladen.

**Topics**
+ [Auf Batch-Load zugreifen](#console_timestream.access-batch-load.using-console)
+ [Erstellen Sie eine Batch-Load-Aufgabe](#console_timestream.create-batch-load.using-console)
+ [Setzen Sie eine Batch-Ladeaufgabe fort](#console_timestream.resume-batch-load.using-console)
+ [Verwenden des Visual Builders](#batch-load-using-visual-builder)

## Auf Batch-Load zugreifen
<a name="console_timestream.access-batch-load.using-console"></a>

Gehen Sie wie folgt vor, um mit dem auf Batch-Load zuzugreifen AWS-Managementkonsole.

1. Öffnen Sie die [Amazon Timestream Timestream-Konsole](https://console.aws.amazon.com/timestream).

1. Wählen Sie im Navigationsbereich **Management Tools** und dann **Batch-Load-Tasks** aus.

1. Von hier aus können Sie sich die Liste der Batch-Load-Aufgaben ansehen und weitere Informationen zu einer bestimmten Aufgabe abrufen. Sie können auch Aufgaben erstellen und fortsetzen.

## Erstellen Sie eine Batch-Load-Aufgabe
<a name="console_timestream.create-batch-load.using-console"></a>

Gehen Sie wie folgt vor, um eine Batch-Load-Task mit dem zu erstellen AWS-Managementkonsole.

1. Öffnen Sie die [Amazon Timestream Timestream-Konsole](https://console.aws.amazon.com/timestream).

1. Wählen Sie im Navigationsbereich **Management Tools** und dann **Batch-Load-Tasks** aus.

1. Wählen Sie **Batch-Load-Task erstellen** aus.

1. Wählen **Sie unter Importziel** Folgendes aus.
   + **Zieldatenbank** — Wählen Sie den Namen der Datenbank aus, die in erstellt wurde[Erstellen einer -Datenbank](console_timestream.md#console_timestream.db.using-console).
   + **Zieltabelle** — Wählen Sie den Namen der Tabelle aus, die in erstellt wurde[Erstellen einer Tabelle](console_timestream.md#console_timestream.table.using-console).

   Bei Bedarf können Sie in diesem Bereich mit der Schaltfläche **Neue Tabelle erstellen eine Tabelle** hinzufügen.

1. Wählen Sie **unter Datenquelle unter Speicherort** der **Datenquelle** den S3-Bucket aus, in dem die Quelldaten gespeichert sind. Verwenden Sie die Schaltfläche **S3 durchsuchen**, um S3-Ressourcen anzuzeigen, auf die das aktive AWS Konto Zugriff hat, oder geben Sie die S3-Standort-URL ein. Die Datenquelle muss sich in derselben Region befinden.

1. In den **Dateiformateinstellungen** (erweiterbarer Abschnitt) können Sie die Standardeinstellungen verwenden, um Eingabedaten zu analysieren. Sie können auch **Erweiterte** Einstellungen wählen. Von dort aus können Sie **Parameter im CSV-Format** und Parameter zum Analysieren von Eingabedaten auswählen. Informationen zu diesen Parametern finden Sie unter[Parameter des CSV-Formats](batch-load-preparing-data-file.md#batch-load-data-file-options).

1. **Konfigurieren Sie unter Datenmodellzuordnung** konfigurieren das Datenmodell. Weitere Anleitungen zum Datenmodell finden Sie unter [Datenmodellzuordnungen für das Batch-Laden](batch-load-data-model-mappings.md)
   + Wählen Sie **unter Datenmodell-Mapping** die Option **Mapping-Konfigurationseingabe** und dann eine der folgenden Optionen aus.
     + **Visual Builder** — Um Daten visuell zuzuordnen, wählen Sie **TargetMultiMeasureName**oder **MeasureNameColumn**. Ordnen Sie dann in **Visual Builder** die Spalten zu.

       Visual Builder erkennt und lädt die Quellspaltenüberschriften automatisch aus der Datenquellendatei, wenn eine einzelne CSV-Datei als Datenquelle ausgewählt wird. Wählen Sie das Attribut und den Datentyp aus, um Ihre Zuordnung zu erstellen.

       Informationen zur Verwendung von Visual Builder finden Sie unter[Verwenden des Visual Builders](#batch-load-using-visual-builder).
     + **JSON-Editor** — Ein Freiform-JSON-Editor zur Konfiguration Ihres Datenmodells. Wählen Sie diese Option, wenn Sie mit Timestream for vertraut sind LiveAnalytics und erweiterte Datenmodell-Mappings erstellen möchten.
     + **JSON-Datei aus S3** — Wählen Sie eine JSON-Modelldatei aus, die Sie in S3 gespeichert haben. Wählen Sie diese Option, wenn Sie bereits ein Datenmodell konfiguriert haben und es für weitere Batch-Ladevorgänge wiederverwenden möchten.

1. Wählen Sie im ****Fehlerprotokollbericht unter S3-Speicherort der Fehlerprotokolle**** den S3-Speicherort aus, der für die Meldung von Fehlern verwendet werden soll. Informationen zur Verwendung dieses Berichts finden Sie unter[Verwenden von Batch-Load-Fehlerberichten](batch-load-using-error-reports.md).

1. Wählen Sie für den **Typ des Verschlüsselungsschlüssels** eine der folgenden Optionen aus.
   + **Von Amazon S3 verwalteter Schlüssel (SSE-S3)** — Ein Verschlüsselungsschlüssel, den Amazon S3 für Sie erstellt, verwaltet und verwendet.
   + **AWS KMS key (SSE-KMS) — Ein Verschlüsselungsschlüssel, der durch ()** geschützt ist. AWS Key Management Service AWS KMS

1. Wählen Sie **Weiter** aus.

1. Überprüfen Sie auf der **Seite Überprüfen und erstellen** die Einstellungen und bearbeiten Sie sie gegebenenfalls.
**Anmerkung**  
Sie können die Einstellungen für Batch-Load-Aufgaben nicht mehr ändern, nachdem die Aufgabe erstellt wurde. Die Bearbeitungszeiten für Aufgaben hängen von der Menge der importierten Daten ab.

1. Wählen Sie **Batch-Load-Aufgabe erstellen** aus.

## Setzen Sie eine Batch-Ladeaufgabe fort
<a name="console_timestream.resume-batch-load.using-console"></a>

Wenn Sie eine Batch-Ladeaufgabe mit dem Status „Fortschritt gestoppt“ auswählen, die immer noch fortgesetzt werden kann, werden Sie aufgefordert, die Aufgabe fortzusetzen. Es gibt auch ein Banner mit der Schaltfläche „**Aufgabe fortsetzen**“, wenn Sie sich die Details für diese Aufgaben ansehen. Aufgaben, die wieder aufgenommen werden können, haben ein Datum, an dem sie fortgesetzt werden können. Nach Ablauf dieses Datums können Aufgaben nicht wieder aufgenommen werden.

## Verwenden des Visual Builders
<a name="batch-load-using-visual-builder"></a>

Sie können den Visual Builder verwenden, um Quelldatenspalten einer oder mehrerer CSV-Datei (en), die in einem S3-Bucket gespeichert sind, Zielspalten in einer LiveAnalytics Timestream-for-Tabelle zuzuordnen.

**Anmerkung**  
Ihre Rolle benötigt die `SelectObjectContent` Genehmigung für die Datei. Andernfalls müssen Sie Spalten manuell hinzufügen und löschen.

### Modus „Quellspalten automatisch laden“
<a name="batch-load-using-visual-builder-auto-load"></a>

Timestream for LiveAnalytics kann die CSV-Quelldatei automatisch nach Spaltennamen durchsuchen, wenn Sie nur einen Bucket angeben. Wenn keine Zuordnungen vorhanden sind, können Sie Quellspalten **importieren** auswählen.

1. Wählen Sie in den **Eingabeeinstellungen für die Mapping-Konfiguration die **Visual Builder-Option** aus und legen Sie die Zeiteingabe** für den Zeitstempel fest. `Milliseconds`ist die Standardeinstellung.

1. Klicken Sie auf die Schaltfläche **Quellspalten laden**, um die in der Quelldatendatei enthaltenen Spaltenüberschriften zu importieren. Die Tabelle wird mit den Namen der Quellspaltenüberschriften aus der Datenquellendatei gefüllt.

1. Wählen Sie für jede Quellspalte den **Spaltennamen der Zieltabelle**, den **Timestream-Attributtyp** **und den Datentyp** aus.

   Einzelheiten zu diesen Spalten und möglichen Werten finden Sie unter[Zuordnen von Feldern](#batch-load-using-visual-builder-mapping-fields).

1. Verwenden Sie die drag-to-fill Funktion, um den Wert für mehrere Spalten gleichzeitig festzulegen.

### Fügen Sie manuell Quellspalten hinzu
<a name="batch-load-using-visual-builder-manually-add"></a>

Wenn Sie ein Bucket- oder CSV-Präfix und kein einzelnes CSV-Präfix verwenden, können Sie mit den Schaltflächen **Spaltenzuordnung hinzufügen und Spaltenzuordnungen löschen im visuellen Editor hinzufügen** und **löschen**. Es gibt auch eine Schaltfläche zum Zurücksetzen von Zuordnungen.

### Zuordnen von Feldern
<a name="batch-load-using-visual-builder-mapping-fields"></a>
+ **Name der Quellspalte** — Der Name einer Spalte in der Quelldatei, die eine zu importierende Kennzahl darstellt. Timestream for LiveAnalytics kann diesen Wert automatisch auffüllen, wenn Sie **Quellspalten importieren** verwenden.
+ **Spaltenname der Zieltabelle** — Optionale Eingabe, die den Spaltennamen für die Kennzahl in der Zieltabelle angibt.
+ **Timestream-Attributtyp** — Der Attributtyp der Daten in der angegebenen Quellspalte, z. B. `DIMENSION`
  + **TIMESTAMP** — Gibt an, wann eine Kennzahl erfasst wurde.
  + **MULTI** — Es werden mehrere Kennzahlen dargestellt.
  + **DIMENSION** — Metadaten von Zeitreihen.
  + **MEASURE\$1NAME** — Bei Datensätzen mit einer einzigen Kennzahl ist dies der Name der Kennzahl.
+ **Datentyp** — Der Typ der Timestream-Spalte, z. B. `BOOLEAN`
  + **BIGINT** — Eine 64-Bit-Ganzzahl.
  + **BOOLEAN** — Die beiden Wahrheitswerte der Logik — wahr und falsch.
  + **DOUBLE** — 64-Bit-Zahl mit variabler Genauigkeit.
  + **TIMESTAMP** — Eine Zeitinstanz, die die Zeit mit einer Genauigkeit von Nanosekunden in UTC verwendet und die Zeit seit der Unix-Epoche verfolgt.

# Verwenden von Batch-Load mit AWS CLI
<a name="batch-load-using-cli"></a>

**Einrichtung**

Führen Sie die folgenden Schritte aus, um mit der Verwendung von Batch-Load zu beginnen.

1. Installieren Sie das AWS CLI anhand der Anweisungen unter[Zugreifen auf Amazon Timestream für die LiveAnalytics Nutzung des AWS CLI](Tools.CLI.md).

1. Führen Sie den folgenden Befehl aus, um sicherzustellen, dass die Timestream-CLI-Befehle aktualisiert wurden. Stellen Sie sicher, dass create-batch-load-task das in der Liste steht.

   `aws timestream-write help`

1. Bereiten Sie eine Datenquelle anhand der Anweisungen unter vor[Eine Batch-Load-Datendatei wird vorbereitet](batch-load-preparing-data-file.md).

1. Erstellen Sie eine Datenbank und eine Tabelle gemäß den Anweisungen unter[Zugreifen auf Amazon Timestream für die LiveAnalytics Nutzung des AWS CLI](Tools.CLI.md).

1. Erstellen Sie einen S3-Bucket für die Berichtsausgabe. Der Bucket muss sich in derselben Region befinden. Weitere Informationen zu Buckets finden Sie unter [Amazon S3 S3-Buckets erstellen, konfigurieren und damit arbeiten](https://docs.aws.amazon.com/AmazonS3/latest/userguide/creating-buckets-s3.html).

1. Erstellen Sie eine Batch-Load-Aufgabe. Informationen zu den erforderlichen Schritten finden Sie unter [Erstellen Sie eine Batch-Load-Aufgabe](#batch-load-using-cli-create-task).

1. Bestätigen Sie den Status der Aufgabe. Informationen zu den erforderlichen Schritten finden Sie unter [Beschreiben Sie die Batch-Load-Aufgabe](#batch-load-using-cli-describe-task).

## Erstellen Sie eine Batch-Load-Aufgabe
<a name="batch-load-using-cli-create-task"></a>

Sie können mit dem `create-batch-load-task` Befehl eine Batch-Load-Task erstellen. Wenn Sie eine Batch-Load-Task mit der CLI erstellen, können Sie einen JSON-Parameter verwenden`cli-input-json`, mit dem Sie die Parameter zu einem einzigen JSON-Fragment zusammenfassen können. Sie können diese Details auch mithilfe mehrerer anderer Parameter wie`data-model-configuration`, `data-source-configuration` `report-configuration``target-database-name`, und auseinandernehmen`target-table-name`.

Ein Beispiel finden Sie unter [Beispiel für eine Batch-Load-Aufgabe erstellen](#batch-load-using-cli-example)

## Beschreiben Sie die Batch-Load-Aufgabe
<a name="batch-load-using-cli-describe-task"></a>

Sie können eine Beschreibung der Batch-Load-Aufgabe wie folgt abrufen.

```
aws timestream-write describe-batch-load-task --task-id <value>
```

Nachfolgend finden Sie eine Beispielantwort.

```
{
    "BatchLoadTaskDescription": {
        "TaskId": "<TaskId>",
        "DataSourceConfiguration": {
            "DataSourceS3Configuration": {
                "BucketName": "test-batch-load-west-2",
                "ObjectKeyPrefix": "sample.csv"
            },
            "CsvConfiguration": {},
            "DataFormat": "CSV"
        },
        "ProgressReport": {
            "RecordsProcessed": 2,
            "RecordsIngested": 0,
            "FileParseFailures": 0,
            "RecordIngestionFailures": 2,
            "FileFailures": 0,
            "BytesIngested": 119
        },
        "ReportConfiguration": {
            "ReportS3Configuration": {
                "BucketName": "test-batch-load-west-2",
                "ObjectKeyPrefix": "<ObjectKeyPrefix>",
                "EncryptionOption": "SSE_S3"
            }
        },
        "DataModelConfiguration": {
            "DataModel": {
                "TimeColumn": "timestamp",
                "TimeUnit": "SECONDS",
                "DimensionMappings": [
                    {
                        "SourceColumn": "vehicle",
                        "DestinationColumn": "vehicle"
                    },
                    {
                        "SourceColumn": "registration",
                        "DestinationColumn": "license"
                    }
                ],
                "MultiMeasureMappings": {
                    "TargetMultiMeasureName": "test",
                    "MultiMeasureAttributeMappings": [
                        {
                            "SourceColumn": "wgt",
                            "TargetMultiMeasureAttributeName": "weight",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "SourceColumn": "spd",
                            "TargetMultiMeasureAttributeName": "speed",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "SourceColumn": "fuel",
                            "TargetMultiMeasureAttributeName": "fuel",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "SourceColumn": "miles",
                            "TargetMultiMeasureAttributeName": "miles",
                            "MeasureValueType": "DOUBLE"
                        }
                    ]
                }
            }
        },
        "TargetDatabaseName": "BatchLoadExampleDatabase",
        "TargetTableName": "BatchLoadExampleTable",
        "TaskStatus": "FAILED",
        "RecordVersion": 1,
        "CreationTime": 1677167593.266,
        "LastUpdatedTime": 1677167602.38
    }
}
```

## Batch-Load-Aufgaben auflisten
<a name="batch-load-using-cli-list-tasks"></a>

Sie können Batch-Load-Aufgaben wie folgt auflisten.

```
aws timestream-write list-batch-load-tasks
```

Eine Ausgabe sieht wie folgt aus.

```
{
    "BatchLoadTasks": [
        {
            "TaskId": "<TaskId>",
            "TaskStatus": "FAILED",
            "DatabaseName": "BatchLoadExampleDatabase",
            "TableName": "BatchLoadExampleTable",
            "CreationTime": 1677167593.266,
            "LastUpdatedTime": 1677167602.38
        }
    ]
}
```

## Setzen Sie die Batch-Ladeaufgabe fort
<a name="batch-load-using-cli-resume-task"></a>

Sie können eine Batch-Ladeaufgabe wie folgt fortsetzen.

```
aws timestream-write resume-batch-load-task --task-id <value>
```

Eine Antwort kann auf Erfolg hinweisen oder Fehlerinformationen enthalten.

## Beispiel für eine Batch-Load-Aufgabe erstellen
<a name="batch-load-using-cli-example"></a>

**Example**  

1. Erstellen Sie einen Timestream für die LiveAnalytics Datenbank mit dem Namen `BatchLoad` und eine Tabelle mit dem Namen`BatchLoadTest`. Überprüfen Sie die Werte für `MemoryStoreRetentionPeriodInHours` und und passen Sie sie gegebenenfalls an. `MagneticStoreRetentionPeriodInDays`

   ```
   aws timestream-write create-database --database-name BatchLoad \
   
   aws timestream-write create-table --database-name BatchLoad \
   --table-name BatchLoadTest \
   --retention-properties "{\"MemoryStoreRetentionPeriodInHours\": 12, \"MagneticStoreRetentionPeriodInDays\": 100}"
   ```

1. Erstellen Sie mit der Konsole einen S3-Bucket und kopieren Sie die `sample.csv` Datei an diesen Speicherort. Sie können eine Beispiel-CSV unter [Beispiel-CSV](samples/batch-load-sample-file.csv.zip) herunterladen.

1. Erstellen Sie mithilfe der Konsole einen S3-Bucket für Timestream LiveAnalytics , um einen Bericht zu schreiben, wenn die Batch-Load-Aufgabe fehlerhaft abgeschlossen wird.

1. Erstellen Sie eine Batch-Load-Aufgabe. Stellen Sie sicher, dass Sie die Buckets, die Sie in den vorherigen Schritten erstellt haben, durch *\$1INPUT\$1BUCKET* und *\$1REPORT\$1BUCKET* ersetzen.

   ```
   aws timestream-write create-batch-load-task \
   --data-model-configuration "{\
               \"DataModel\": {\
                 \"TimeColumn\": \"timestamp\",\
                 \"TimeUnit\": \"SECONDS\",\
                 \"DimensionMappings\": [\
                   {\
                     \"SourceColumn\": \"vehicle\"\
                   },\
                   {\
                     \"SourceColumn\": \"registration\",\
                     \"DestinationColumn\": \"license\"\
                   }\
                 ],
                 \"MultiMeasureMappings\": {\
                   \"TargetMultiMeasureName\": \"mva_measure_name\",\
                   \"MultiMeasureAttributeMappings\": [\
                     {\
                       \"SourceColumn\": \"wgt\",\
                       \"TargetMultiMeasureAttributeName\": \"weight\",\
                       \"MeasureValueType\": \"DOUBLE\"\
                     },\
                     {\
                       \"SourceColumn\": \"spd\",\
                       \"TargetMultiMeasureAttributeName\": \"speed\",\
                       \"MeasureValueType\": \"DOUBLE\"\
                     },\
                     {\
                       \"SourceColumn\": \"fuel_consumption\",\
                       \"TargetMultiMeasureAttributeName\": \"fuel\",\
                       \"MeasureValueType\": \"DOUBLE\"\
                     },\
                     {\
                       \"SourceColumn\": \"miles\",\
                       \"MeasureValueType\": \"BIGINT\"\
                     }\
                   ]\
                 }\
               }\
             }" \
   --data-source-configuration "{
               \"DataSourceS3Configuration\": {\
                 \"BucketName\": \"$INPUT_BUCKET\",\
                 \"ObjectKeyPrefix\": \"$INPUT_OBJECT_KEY_PREFIX\"
               },\
               \"DataFormat\": \"CSV\"\
             }" \
   --report-configuration "{\
               \"ReportS3Configuration\": {\
                 \"BucketName\": \"$REPORT_BUCKET\",\
                 \"EncryptionOption\": \"SSE_S3\"\
               }\
             }" \
   --target-database-name BatchLoad \
   --target-table-name BatchLoadTest
   ```

   Der vorherige Befehl gibt die folgende Ausgabe zurück.

   ```
   {
       "TaskId": "TaskId "
   }
   ```

1. Überprüfen Sie den Fortschritt der Aufgabe. Stellen Sie sicher, dass Sie *\$1TASK\$1ID* durch die Aufgaben-ID ersetzen, die im vorherigen Schritt zurückgegeben wurde.

   ```
   aws timestream-write describe-batch-load-task --task-id $TASK_ID 
   ```
**Beispielausgabe**  

```
{
    "BatchLoadTaskDescription": {
        "ProgressReport": {
            "BytesIngested": 1024,
            "RecordsIngested": 2,
            "FileFailures": 0,
            "RecordIngestionFailures": 0,
            "RecordsProcessed": 2,
            "FileParseFailures": 0
        },
        "DataModelConfiguration": {
            "DataModel": {
                "DimensionMappings": [
                    {
                        "SourceColumn": "vehicle",
                        "DestinationColumn": "vehicle"
                    },
                    {
                        "SourceColumn": "registration",
                        "DestinationColumn": "license"
                    }
                ],
                "TimeUnit": "SECONDS",
                "TimeColumn": "timestamp",
                "MultiMeasureMappings": {
                    "MultiMeasureAttributeMappings": [
                        {
                            "TargetMultiMeasureAttributeName": "weight",
                            "SourceColumn": "wgt",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "TargetMultiMeasureAttributeName": "speed",
                            "SourceColumn": "spd",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "TargetMultiMeasureAttributeName": "fuel",
                            "SourceColumn": "fuel_consumption",
                            "MeasureValueType": "DOUBLE"
                        },
                        {
                            "TargetMultiMeasureAttributeName": "miles",
                            "SourceColumn": "miles",
                            "MeasureValueType": "DOUBLE"
                        }
                    ],
                    "TargetMultiMeasureName": "mva_measure_name"
                }
            }
        },
        "TargetDatabaseName": "BatchLoad",
        "CreationTime": 1672960381.735,
        "TaskStatus": "SUCCEEDED",
        "RecordVersion": 1,
        "TaskId": "TaskId ",
        "TargetTableName": "BatchLoadTest",
        "ReportConfiguration": {
            "ReportS3Configuration": {
                "EncryptionOption": "SSE_S3",
                "ObjectKeyPrefix": "ObjectKeyPrefix ",
                "BucketName": "amzn-s3-demo-bucket"
            }
        },
        "DataSourceConfiguration": {
            "DataSourceS3Configuration": {
                "ObjectKeyPrefix": "sample.csv",
                "BucketName": "amzn-s3-demo-source-bucket"
            },
            "DataFormat": "CSV",
            "CsvConfiguration": {}
        },
        "LastUpdatedTime": 1672960387.334
    }
}
```

# Verwenden Sie Batch-Load mit dem AWS SDKs
<a name="batch-load-using-sdk"></a>

Beispiele für das Erstellen, Beschreiben und Auflisten von Batch-Load-Aufgaben mit dem AWS SDKs, finden Sie unter [Batch-Load-Aufgabe erstellen](code-samples.create-batch-load.md)[Beschreiben Sie die Batch-Load-Aufgabe](code-samples.describe-batch-load.md),[Batch-Load-Aufgaben auflisten](code-samples.list-batch-load-tasks.md), und[Batch-Load-Aufgabe fortsetzen](code-samples.resume-batch-load-task.md).

# Verwenden von Batch-Load-Fehlerberichten
<a name="batch-load-using-error-reports"></a>

Batch-Load-Aufgaben haben einen der folgenden Statuswerte:
+ `CREATED`(**Erstellt**) — Die Aufgabe wurde erstellt.
+ `IN_PROGRESS`(**In Bearbeitung**) — Die Aufgabe ist in Bearbeitung.
+ `FAILED`(**Fehlgeschlagen**) — Die Aufgabe wurde abgeschlossen. Es wurden jedoch ein oder mehrere Fehler festgestellt.
+ `SUCCEEDED`(**Abgeschlossen**) — Die Aufgabe wurde ohne Fehler abgeschlossen.
+ `PROGRESS_STOPPED`(**Fortschritt gestoppt**) — Die Aufgabe wurde gestoppt, aber nicht abgeschlossen. Sie können versuchen, die Aufgabe fortzusetzen.
+ `PENDING_RESUME`(**Ausstehende Wiederaufnahme**) — Die Wiederaufnahme der Aufgabe steht noch aus.

Wenn Fehler auftreten, wird ein Fehlerprotokollbericht in dem dafür definierten S3-Bucket erstellt. Fehler werden in separaten Arrays als TaskErrors oder FileErrors kategorisiert. Im Folgenden finden Sie ein Beispiel für einen Fehlerbericht.

```
{
    "taskId": "9367BE28418C5EF902676482220B631C",
    "taskErrors": [],
    "fileErrors": [
        {
            "fileName": "example.csv",
            "errors": [
                {
                    "reason": "The record timestamp is outside the time range of the data ingestion window.",
                    "lineRanges": [
                        [
                            2,
                            3
                        ]
                    ]
                }
            ]
        }
    ]
}
```