Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.
Crea un trabajo de importación por lotes (AWS CLI)
Utilice la operación de CreateBulkImportJobAPI para transferir datos de Amazon S3 a AWS IoT SiteWise. Utilice la CreateBulkImportJobAPI para ingerir datos en lotes pequeños de forma rentable. El siguiente ejemplo utiliza AWS CLI.
importante
Antes de crear un trabajo de importación masiva, debe habilitar el nivel AWS IoT SiteWise cálido o el nivel AWS IoT SiteWise frío. Para obtener más información, consulte Configurar los ajustes de almacenamiento.
La importación masiva está diseñada para almacenar datos históricos en AWS IoT SiteWise. No inicia los cálculos ni las notificaciones en el nivel AWS IoT SiteWise cálido o en el nivel AWS IoT SiteWise frío.
Ejecute el siguiente comando de la . Reemplace file-name
por el nombre del archivo que contiene la configuración del trabajo de importación por lotes.
aws iotsitewise create-bulk-import-job --cli-input-json file://
file-name
.json
ejemplo Configuración de trabajos de importación masiva
Los siguientes son ejemplos de opciones de configuración:
-
Reemplace
adaptive-ingestion-flag
portrue
ofalse
.Si se establece en
false
, el trabajo de importación masiva ingiere datos históricos en AWS IoT SiteWiseél.Si se establece en
true
, el trabajo de importación masiva hace lo siguiente:Ingiere nuevos datos en. AWS IoT SiteWise
Calcula las métricas y las transforma, y admite las notificaciones de datos con una marca temporal de siete días.
-
Sustituya
delete-files-after-import-flag
portrue
para eliminar los datos del depósito de datos de S3 después de haberlos introducido en un almacenamiento de nivel AWS IoT SiteWise cálido. -
Reemplace
error-bucket
por el nombre del bucket de Amazon S3 al que se envían los errores asociados a este trabajo de importación por lotes. -
error-bucket-prefix
Sustitúyalo por el prefijo del bucket de Amazon S3 al que se envían los errores asociados a este trabajo de importación masiva.Amazon S3 usa el prefijo como nombre de carpeta para organizar los datos del bucket. Cada objeto de Amazon S3 tiene una clave que es su identificador único en el bucket. Cada objeto de un bucket tiene exactamente una clave. El prefijo debe terminar con una barra diagonal: (/). Para obtener más información, consulte Organizar objetos usando prefijos en la Guía para usuarios de Amazon Simple Storage Service.
-
Reemplace
data-bucket
por el nombre del bucket de Amazon S3 desde el que se importan los datos. -
data-bucket-key
Sustitúyala por la clave del objeto de Amazon S3 que contiene los datos. Cada objeto tiene una clave que es un identificador único. Cada objeto tiene exactamente una clave. -
data-bucket-version-id
Sustitúyalo por el ID de versión para identificar una versión específica del objeto de Amazon S3 que contiene sus datos. Este parámetro es opcional. -
Reemplace
column-name
por el nombre de la columna especificado en el archivo .csv. -
Reemplace
job-name
por un nombre de trabajo único que identifique el trabajo de importación por lotes. -
job-role-arn
Sustitúyalo por el rol de IAM que AWS IoT SiteWise permite leer los datos de Amazon S3.
nota
Asegúrese de que el rol tenga los permisos que se muestran en el siguiente ejemplo. Sustituya data-bucket
por el nombre del bucket de Amazon S3 que contiene sus datos. Además, sustituya error-bucket
por el nombre del bucket de Amazon S3 al que se envían los errores asociados a este trabajo de importación masiva.
{ "Version": "2012-10-17", "Statement": [ { "Action": [ "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::
data-bucket
", "arn:aws:s3:::data-bucket
/*", ], "Effect": "Allow" }, { "Action": [ "s3:PutObject", "s3:GetObject", "s3:GetBucketLocation" ], "Resource": [ "arn:aws:s3:::error-bucket
", "arn:aws:s3:::error-bucket
/*" ], "Effect": "Allow" } ] }
{ "adaptiveIngestion": adaptive-ingestion-flag, "deleteFilesAfterImport": delete-files-after-import-flag, "errorReportLocation": { "bucket": "
error-bucket
", "prefix": "error-bucket-prefix
" }, "files": [ { "bucket": "data-bucket
", "key": "data-bucket-key
", "versionId": "data-bucket-version-id
" } ], "jobConfiguration": { "fileFormat": { "csv": { "columnNames": [ "column-name
" ] } } }, "jobName": "job-name
", "jobRoleArn": "job-role-arn
" }
ejemplo Respuesta
{ "jobId":"f8c031d0-01d1-4b94-90b1-afe8bb93b7e5", "jobStatus":"PENDING", "jobName":"myBulkImportJob" }