

Para obtener capacidades similares a las de Amazon Timestream, considere Amazon Timestream LiveAnalytics para InfluxDB. Ofrece una ingesta de datos simplificada y tiempos de respuesta a las consultas en milisegundos de un solo dígito para realizar análisis en tiempo real. Obtenga más información [aquí](https://docs.aws.amazon.com//timestream/latest/developerguide/timestream-for-influxdb.html).

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

# Requisitos previos de carga de lotes
<a name="batch-load-prerequisites"></a>

Esta es una lista de requisitos previos para usar la carga por lotes. Para ver las prácticas recomendadas, consulte [Prácticas recomendadas de carga por lotes](batch-load-best-practices.md).
+ Los datos de origen de la carga por lotes se almacenan en Amazon S3 en formato CSV con encabezados.
+ Para cada bucket de origen de Amazon S3, debe contar con los siguientes permisos en una política adjunta:

  ```
  "s3:GetObject",
  "s3:GetBucketAcl"
  "s3:ListBucket"
  ```

  Igualmente, para cada bucket de salida de Amazon S3 en los que se escriben informes, debe contar con los siguientes permisos en una política adjunta:

  ```
  "s3:PutObject",
  "s3:GetBucketAcl"
  ```

  Por ejemplo:

------
#### [ JSON ]

****  

  ```
  {
      "Version":"2012-10-17",		 	 	 
      "Statement": [
          {
              "Action": [
                  "s3:GetObject",
                  "s3:GetBucketAcl",
                  "s3:ListBucket"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-source-bucket1\u201d",
                  "arn:aws:s3:::amzn-s3-demo-source-bucket2\u201d"
              ],
              "Effect": "Allow"
          },
          {
              "Action": [
                  "s3:PutObject",
                  "s3:GetBucketAcl"
              ],
              "Resource": [
                  "arn:aws:s3:::amzn-s3-demo-destination-bucket\u201d"
              ],
              "Effect": "Allow"
          }
      ]
  }
  ```

------
+ Timestream for LiveAnalytics analiza el CSV asignando la información que se proporciona en el modelo de datos a los encabezados del CSV. Los datos deben tener una columna que represente la marca de tiempo, al menos una columna de dimensiones y al menos una columna de medida.
+ Los depósitos de S3 utilizados con la carga por lotes deben estar en la misma región y proceder de la misma cuenta que la LiveAnalytics tabla Timestream for que se utiliza en la carga por lotes.
+ La columna `timestamp` debe ser un tipo de datos largo que represente el tiempo transcurrido desde la época de Unix. Por ejemplo, la marca de tiempo `2021-03-25T08:45:21Z` se representaría como `1616661921`. Timestream admite segundos, milisegundos, microsegundos y nanosegundos para la precisión de la marca de tiempo. Al utilizar el lenguaje de consulta, puede convertir entre formatos con funciones como `to_unixtime`. Para obtener más información, consulte [Funciones de fecha y hora](date-time-functions.md).
+ Timestream admite el tipo de datos de cadena para los valores de dimensión. Admite los tipos de datos largos, dobles, de cadena y booleanos para las columnas de medida.

Para conocer los límites y las cuotas de carga de lotes, consulte [Carga por lotes](ts-limits.md#limits.batch-load).