

Per funzionalità simili a Amazon Timestream for, prendi in considerazione Amazon Timestream LiveAnalytics per InfluxDB. Offre un'acquisizione semplificata dei dati e tempi di risposta alle query di una sola cifra di millisecondi per analisi in tempo reale. [Scopri](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html) di più qui.

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

# Prerequisiti per il caricamento in batch
<a name="batch-load-prerequisites"></a>

Questo è un elenco di prerequisiti per l'utilizzo del caricamento in batch. Per le best practice, consulta [Procedure ottimali per il caricamento in batch](batch-load-best-practices.md).
+ I dati di origine del caricamento in batch vengono archiviati in Amazon S3 in formato CSV con intestazioni.
+ Per ogni bucket di origine Amazon S3, devi disporre delle seguenti autorizzazioni in una policy allegata:

  ```
  "s3:GetObject",
  "s3:GetBucketAcl"
  "s3:ListBucket"
  ```

  Analogamente, per ogni bucket di output di Amazon S3 in cui vengono scritti i report, è necessario disporre delle seguenti autorizzazioni in una policy allegata:

  ```
  "s3:PutObject",
  "s3:GetBucketAcl"
  ```

  Esempio:

------
#### [ JSON ]

****  

  ```
  {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
          {
              "Action": [
                  "s3:GetObject",
                  "s3:GetBucketAcl",
                  "s3:ListBucket"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-source-bucket1\u201d",
                  "arn:aws:s3:::amzn-s3-demo-source-bucket2\u201d"
              ],
              "Effect": "Allow"
          },
          {
              "Action": [
                  "s3:PutObject",
                  "s3:GetBucketAcl"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-destination-bucket\u201d"
              ],
              "Effect": "Allow"
          }
      ]
  }
  ```

------
+ Timestream for LiveAnalytics analizza il file CSV mappando le informazioni fornite nel modello di dati alle intestazioni CSV. I dati devono avere una colonna che rappresenti il timestamp, almeno una colonna di dimensione e almeno una colonna di misura.
+ I bucket S3 utilizzati con il caricamento in batch devono trovarsi nella stessa regione e provenire dallo stesso account della LiveAnalytics tabella Timestream for utilizzata nel caricamento in batch.
+ La `timestamp` colonna deve essere un tipo di dati lungo che rappresenta il tempo trascorso dall'epoca Unix. Ad esempio, il timestamp `2021-03-25T08:45:21Z` sarebbe rappresentato come. `1616661921` Timestream supporta secondi, millisecondi, microsecondi e nanosecondi per la precisione del timestamp. Quando si utilizza il linguaggio di interrogazione, è possibile eseguire la conversione tra formati con funzioni come. `to_unixtime` Per ulteriori informazioni, consulta [Funzioni data/ora](date-time-functions.md).
+ Timestream supporta il tipo di dati stringa per i valori delle dimensioni. Supporta tipi di dati long, double, string e booleani per le colonne di misura.

Per i limiti e le quote di carico in batch, vedere. [Caricamento in batch](ts-limits.md#limits.batch-load)