

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

# AWS IoT SiteWise 一括インポートジョブを作成する (AWS CLI)
<a name="CreateBulkImportJob"></a>

[CreateBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateBulkImportJob.html) API オペレーションを使用して、Amazon S3 から AWS IoT SiteWiseにデータを転送します。[CreateBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateBulkImportJob.html) API を使用すると、大量の履歴データの取り込みと、分析データストリームのバッファ取り込みを小さなバッチで行うことができます。データの取り込みのためのコスト効率の高いプリミティブを提供します。次の例では AWS CLIを使用しています。

**重要**  
一括インポートジョブを作成する前に、 AWS IoT SiteWise ウォーム階層または AWS IoT SiteWise コールド階層を有効にする必要があります。詳細については、「[でストレージ設定を構成する AWS IoT SiteWise](configure-storage.md)」を参照してください。  
 [CreateBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateBulkImportJob.html) API は、adaptive-ingestion-flag パラメータを設定するオプション AWS IoT SiteWise を使用して、履歴データの への取り込みをサポートします。  
`false` に設定すると、API は計算や通知をトリガーせずに履歴データを取り込みます。
`true` に設定すると、API は新しいデータを取り込み、メトリクスを計算し、データを変換して、7 日以内に進行中の分析と通知を最適化します。

以下のコマンドを実行してください。*file-name* の部分は、一括インポートジョブの設定を含むファイルの名前に置き換えます。

```
aws iotsitewise create-bulk-import-job --cli-input-json file://file-name.json
```

**Example 一括インポートジョブの設定**  
以下は、構成設定の例です。  
+ *adaptive-ingestion-flag* を `true` または `false` に置き換えます。
  + `false` に設定すると、一括インポートジョブは履歴データを AWS IoT SiteWiseに取り込みます。
  + `true` に設定すると、一括インポートジョブは以下を実行します。
    + 新しいデータを取り込みます AWS IoT SiteWise。
    + メトリクスを計算して変換し、7 日以内のタイムスタンプを持つデータの通知をサポートします。
+ *delete-files-after-import-flag* を に置き換え`true`て、 AWS IoT SiteWise ウォーム階層ストレージへの取り込み後に Amazon S3 データバケットからデータを削除します。
+ amzn-s3-demo-bucket*-for-errors* を、この一括インポートジョブに関連するエラーの送信先である Amazon S3 バケットの名前に置き換えます。
+ amzn-s3-demo-bucket*-for-errors-prefix* を、この一括インポートジョブに関連するエラーの送信先である Amazon S3 バケットのプレフィックスに置き換えます。

  Amazon S3 では、このプレフィックスをフォルダ名として使用して、バケット内のデータを整理します。Amazon S3 バケット内の各オブジェクトには、バケット内の一意の識別子であるキーが含まれます。バケット内のすべてのオブジェクトは、厳密に 1 個のキーを持ちます。このプレフィックスは、スラッシュ (/) で終わる必要があります。詳細は、*『Amazon Simple Storage Service ユーザーガイド』*の「[プレフィックスを使用してオブジェクトを整理する](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-prefixes.html)」を参照してください。
+ amzn-s3-demo-bucket*-data* を、データのインポート元である Amazon S3 バケットの名前に置き換えます。
+ *data-bucket-key* の部分は、データを含む Amazon S3 オブジェクトのキーに置き換えます。すべてのオブジェクトには、一意の識別子であるキーがあります。すべてのオブジェクトは、厳密に 1 個のキーを持ちます。
+ *data-bucket-version-id* の部分は、データを含む Amazon S3 オブジェクトの特定のバージョンを識別するバージョン ID に置き換えます。このパラメータはオプションです。
+ *column-name* の部分は、.csv ファイルに指定されている列名に置き換えます。
+ *job-name* の部分は、一括インポートジョブを識別する一意の名前に置き換えます。
+ *job-role-arn* の部分は、 AWS IoT SiteWise が Amazon S3 データの読み取ることを許可する IAM ロールに置き換えます。
次の例に示すようなアクセス許可をロールが持っていることを確認してください。amzn-s3-demo-bucket*-data* を、データを含む Amazon S3 バケットの名前に置き換えます。また、*amzn-s3-demo-bucket-for-errors* を、この一括インポートジョブに関連するエラーの送信先である Amazon S3 バケットの名前に置き換えます。    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3:GetObject",
                "s3:GetBucketLocation"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket-data",
                "arn:aws:s3:::amzn-s3-demo-bucket-data/*"
            ],
            "Effect": "Allow"
        },
        {
            "Action": [
                "s3:PutObject",
                "s3:GetObject",
                "s3:GetBucketLocation"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket-for-errors",
                "arn:aws:s3:::amzn-s3-demo-bucket-for-errors/*"
            ],
            "Effect": "Allow"
        }
    ]
}
```

```
{
   "adaptiveIngestion": adaptive-ingestion-flag,
   "deleteFilesAfterImport": delete-files-after-import-flag,       
   "errorReportLocation": { 
      "bucket": "amzn-s3-demo-bucket-for-errors",
      "prefix": "amzn-s3-demo-bucket-for-errors-prefix"
   },
   "files": [ 
      { 
         "bucket": "amzn-s3-demo-bucket-data",
         "key": "data-bucket-key",
         "versionId": "data-bucket-version-id"
      }
   ],
   "jobConfiguration": { 
      "fileFormat": { 
         "csv": { 
            "columnNames": [ "column-name" ]
         }
      }
   },
   "jobName": "job-name",
   "jobRoleArn": "job-role-arn"    
}
```

**Example response**  

```
{
   "jobId":"f8c031d0-01d1-4b94-90b1-afe8bb93b7e5",
   "jobStatus":"PENDING",
   "jobName":"myBulkImportJob"
}
```