

要获得与亚马逊 Timestream 类似的功能 LiveAnalytics，可以考虑适用于 InfluxDB 的亚马逊 Timestream。适用于 InfluxDB 的 Amazon Timestream 提供简化的数据摄取和个位数毫秒级的查询响应时间，以实现实时分析。点击[此处](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html)了解更多信息。

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# 批量加载先决条件
<a name="batch-load-prerequisites"></a>

这是使用批量加载的先决条件列表。有关最佳实践，请参阅[批量加载最佳实践](batch-load-best-practices.md)。
+ 批量加载源数据以带有标题的 CSV 格式存储在 Amazon S3 中。
+ 对于每个 Amazon S3 源存储桶，您必须在附加策略中具备以下权限：

  ```
  "s3:GetObject",
  "s3:GetBucketAcl"
  "s3:ListBucket"
  ```

  同样，对于写入报告的每个 Amazon S3 输出存储桶，您必须在附加策略中具备以下权限：

  ```
  "s3:PutObject",
  "s3:GetBucketAcl"
  ```

  例如：

------
#### [ JSON ]

****  

  ```
  {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
          {
              "Action": [
                  "s3:GetObject",
                  "s3:GetBucketAcl",
                  "s3:ListBucket"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-source-bucket1\u201d",
                  "arn:aws:s3:::amzn-s3-demo-source-bucket2\u201d"
              ],
              "Effect": "Allow"
          },
          {
              "Action": [
                  "s3:PutObject",
                  "s3:GetBucketAcl"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-destination-bucket\u201d"
              ],
              "Effect": "Allow"
          }
      ]
  }
  ```

------
+ timestream for 通过将数据模型中提供的信息映射到 CSV 标头来 LiveAnalytics 解析 CSV。数据必须包含一个代表时间戳的列、至少一个维度列以及至少一个度量列。
+ 用于批量加载的 S3 存储桶必须与用于批量加载的 LiveAnalytics 表的 Timestream 位于同一区域，并且来自同一账户。
+ `timestamp` 列必须是长数据类型，表示自 Unix epoch 以来的时间。例如，时间戳 `2021-03-25T08:45:21Z` 将表示为 `1616661921`。Timestream 支持秒、毫秒、微秒和纳秒作为时间戳的精度单位。使用查询语言时，可通过 `to_unixtime` 等函数在不同格式之间进行转换。有关更多信息，请参阅[日期/时间函数](date-time-functions.md)。
+ Timestream 支持字符串数据类型用于维度值。Timestream 支持长整型、双精度、字符串和布尔值数据类型用于度量列。

有关批量加载限制和限额，请参阅[批量加载](ts-limits.md#limits.batch-load)。