

Para recursos semelhantes aos do Amazon Timestream para, considere o Amazon Timestream LiveAnalytics para InfluxDB. Ele oferece ingestão de dados simplificada e tempos de resposta de consulta de um dígito em milissegundos para análises em tempo real. Saiba mais [aqui](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html).

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

# Pré-requisitos de carregamento em lote
<a name="batch-load-prerequisites"></a>

Essa é uma lista de pré-requisitos para usar o carregamento em lote. Para ver as práticas recomendadas, consulte [Práticas recomendadas de carregamento em lote](batch-load-best-practices.md).
+ Os dados da origem do carregamento em lote são armazenados no Amazon S3 no formato CSV com cabeçalhos.
+ Para cada bucket de origem do Amazon S3, você deve ter as seguintes permissões em uma política anexada:

  ```
  "s3:GetObject",
  "s3:GetBucketAcl"
  "s3:ListBucket"
  ```

  Da mesma forma, para cada bucket de saída do Amazon S3 em que os relatórios são gravados, você deve ter as seguintes permissões em uma política anexada:

  ```
  "s3:PutObject",
  "s3:GetBucketAcl"
  ```

  Por exemplo:

------
#### [ JSON ]

****  

  ```
  {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
          {
              "Action": [
                  "s3:GetObject",
                  "s3:GetBucketAcl",
                  "s3:ListBucket"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-source-bucket1\u201d",
                  "arn:aws:s3:::amzn-s3-demo-source-bucket2\u201d"
              ],
              "Effect": "Allow"
          },
          {
              "Action": [
                  "s3:PutObject",
                  "s3:GetBucketAcl"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-destination-bucket\u201d"
              ],
              "Effect": "Allow"
          }
      ]
  }
  ```

------
+ Timestream para LiveAnalytics analisar o CSV mapeando as informações fornecidas no modelo de dados para cabeçalhos CSV. Os dados devem ter uma coluna que represente o registro de data e hora, pelo menos uma coluna de dimensão e pelo menos uma coluna de medida.
+ Os buckets do S3 usados com carregamento em lote devem estar na mesma região e na mesma conta da LiveAnalytics tabela Timestream for usada no carregamento em lote.
+ A coluna `timestamp` deve ser um tipo de dados longo que represente o tempo desde a época do Unix. Por exemplo, o registro de data e hora `2021-03-25T08:45:21Z` seria representado como `1616661921`. O Timestream suporta segundos, milissegundos, microssegundos e nanossegundos para a precisão do registro de data e hora. Ao usar a linguagem de consulta, você pode converter entre formatos com funções como `to_unixtime`. Para obter mais informações, consulte [Funções de data e hora](date-time-functions.md).
+ O Timestream suporta o tipo de dados de string para valores de dimensão. Ele suporta tipos de dados longos, duplos, de sequência de caracteres e booleanos para colunas de medida.

Para limites e cotas de carregamento em lote, consulte [Carga de lote](ts-limits.md#limits.batch-load).