Crea un trabajo de importación por lotes (AWS CLI) - AWS IoT SiteWise

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Crea un trabajo de importación por lotes (AWS CLI)

Utilice la operación de CreateBulkImportJobAPI para transferir datos de Amazon S3 a AWS IoT SiteWise. Utilice la CreateBulkImportJobAPI para ingerir datos en lotes pequeños de forma rentable. El siguiente ejemplo utiliza AWS CLI.

importante

Antes de crear un trabajo de importación masiva, debe habilitar el nivel AWS IoT SiteWise cálido o el nivel AWS IoT SiteWise frío. Para obtener más información, consulte Configurar los ajustes de almacenamiento.

La importación masiva está diseñada para almacenar datos históricos en AWS IoT SiteWise. No inicia los cálculos ni las notificaciones en el nivel AWS IoT SiteWise cálido o en el nivel AWS IoT SiteWise frío.

Ejecute el siguiente comando de la . Reemplace file-name por el nombre del archivo que contiene la configuración del trabajo de importación por lotes.

aws iotsitewise create-bulk-import-job --cli-input-json file://file-name.json
ejemplo Configuración de trabajos de importación masiva

Los siguientes son ejemplos de opciones de configuración:

  • Reemplace adaptive-ingestion-flag por true o false.

    • Si se establece enfalse, el trabajo de importación masiva ingiere datos históricos en AWS IoT SiteWiseél.

    • Si se establece entrue, el trabajo de importación masiva hace lo siguiente:

      • Ingiere nuevos datos en. AWS IoT SiteWise

      • Calcula las métricas y las transforma, y admite las notificaciones de datos con una marca temporal de siete días.

  • Sustituya delete-files-after-import-flag por true para eliminar los datos del depósito de datos de S3 después de haberlos introducido en un almacenamiento de nivel AWS IoT SiteWise cálido.

  • Reemplace error-bucket por el nombre del bucket de Amazon S3 al que se envían los errores asociados a este trabajo de importación por lotes.

  • error-bucket-prefixSustitúyalo por el prefijo del bucket de Amazon S3 al que se envían los errores asociados a este trabajo de importación masiva.

    Amazon S3 usa el prefijo como nombre de carpeta para organizar los datos del bucket. Cada objeto de Amazon S3 tiene una clave que es su identificador único en el bucket. Cada objeto de un bucket tiene exactamente una clave. El prefijo debe terminar con una barra diagonal: (/). Para obtener más información, consulte Organizar objetos usando prefijos en la Guía para usuarios de Amazon Simple Storage Service.

  • Reemplace data-bucket por el nombre del bucket de Amazon S3 desde el que se importan los datos.

  • data-bucket-keySustitúyala por la clave del objeto de Amazon S3 que contiene los datos. Cada objeto tiene una clave que es un identificador único. Cada objeto tiene exactamente una clave.

  • data-bucket-version-idSustitúyalo por el ID de versión para identificar una versión específica del objeto de Amazon S3 que contiene sus datos. Este parámetro es opcional.

  • Reemplace column-name por el nombre de la columna especificado en el archivo .csv.

  • Reemplace job-name por un nombre de trabajo único que identifique el trabajo de importación por lotes.

  • job-role-arnSustitúyalo por el rol de IAM que AWS IoT SiteWise permite leer los datos de Amazon S3.

nota

Asegúrese de que el rol tenga los permisos que se muestran en el siguiente ejemplo. Sustituya data-bucket por el nombre del bucket de Amazon S3 que contiene sus datos. Además, sustituya error-bucket por el nombre del bucket de Amazon S3 al que se envían los errores asociados a este trabajo de importación masiva.

{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::data-bucket", "arn:aws:s3:::data-bucket/*", ], "Effect": "Allow" }, { "Action": [ "s3:PutObject", "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::error-bucket", "arn:aws:s3:::error-bucket/*" ], "Effect": "Allow" } ] }
{ "adaptiveIngestion": adaptive-ingestion-flag, "deleteFilesAfterImport": delete-files-after-import-flag, "errorReportLocation": { "bucket": "error-bucket", "prefix": "error-bucket-prefix" }, "files": [ { "bucket": "data-bucket", "key": "data-bucket-key", "versionId": "data-bucket-version-id" } ], "jobConfiguration": { "fileFormat": { "csv": { "columnNames": [ "column-name" ] } } }, "jobName": "job-name", "jobRoleArn": "job-role-arn" }
ejemplo Respuesta
{ "jobId":"f8c031d0-01d1-4b94-90b1-afe8bb93b7e5", "jobStatus":"PENDING", "jobName":"myBulkImportJob" }