

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# Erstellen Sie einen AWS IoT SiteWise Massenimportauftrag ()AWS CLI
<a name="CreateBulkImportJob"></a>

Verwenden Sie den [CreateBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateBulkImportJob.html)API-Vorgang, um Daten von Amazon S3 zu zu übertragen AWS IoT SiteWise. Die [CreateBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateBulkImportJob.html)API ermöglicht die Aufnahme großer Mengen historischer Daten und die gepufferte Aufnahme analytischer Datenströme in kleinen Batches. Sie bietet ein kostengünstiges Primitiv für die Datenaufnahme. Das folgende Beispiel verwendet die AWS CLI.

**Wichtig**  
Bevor Sie einen Massenimportauftrag erstellen, müssen Sie AWS IoT SiteWise Warm Tier oder AWS IoT SiteWise Cold Tier aktivieren. Weitere Informationen finden Sie unter [Konfigurieren Sie die Speichereinstellungen in AWS IoT SiteWise](configure-storage.md).  
 Die [CreateBulkImportJob](https://docs.aws.amazon.com/iot-sitewise/latest/APIReference/API_CreateBulkImportJob.html)API unterstützt die Aufnahme von historischen Daten AWS IoT SiteWise mit der Option, den Parameter festzulegen. adaptive-ingestion-flag   
Wenn diese Option auf gesetzt ist`false`, nimmt die API historische Daten auf, ohne Berechnungen oder Benachrichtigungen auszulösen.
Wenn diese Option aktiviert ist`true`, nimmt die API neue Daten auf, berechnet Metriken und transformiert die Daten, um die laufenden Analysen und Benachrichtigungen innerhalb von sieben Tagen zu optimieren.

Führen Sie den folgenden Befehl aus. *file-name*Ersetzen Sie es durch den Namen der Datei, die die Konfiguration des Massenimportauftrags enthält.

```
aws iotsitewise create-bulk-import-job --cli-input-json file://file-name.json
```

**Example Konfiguration für den Massenimport-Job**  
Im Folgenden finden Sie Beispiele für Konfigurationseinstellungen:  
+ Ersetzen Sie *adaptive-ingestion-flag* durch `true` oder `false`.
  + Wenn diese Option auf gesetzt ist`false`, nimmt der Massenimportjob historische Daten in AWS IoT SiteWise auf.
  + Wenn diese Option auf gesetzt ist`true`, führt der Massenimportjob Folgendes aus:
    + Nimmt neue Daten auf in AWS IoT SiteWise.
    + Berechnet Kennzahlen und Transformationen und unterstützt Benachrichtigungen für Daten mit einem Zeitstempel innerhalb von sieben Tagen.
+ *delete-files-after-import-flag*Ersetzen Sie durch`true`, um die Daten aus dem Amazon S3 S3-Daten-Bucket zu löschen, nachdem sie in den AWS IoT SiteWise Warm-Tier-Speicher aufgenommen wurden.
+ Ersetzen Sie amzn-s3-demo-bucket *-for-errors* durch den Namen des Amazon S3 S3-Buckets, an den Fehler im Zusammenhang mit diesem Massenimportauftrag gesendet werden.
+ Ersetzen Sie amzn-s3-demo-bucket *-for-errors-prefix* durch das Präfix des Amazon S3 S3-Buckets, an den Fehler im Zusammenhang mit diesem Massenimportauftrag gesendet werden. 

  Amazon S3 verwendet das Präfix als Ordnernamen, um Daten im Bucket zu organisieren. Jedes Amazon S3 S3-Objekt hat einen Schlüssel, der seine eindeutige Kennung im Bucket ist. Jedes Objekt in einem Bucket besitzt genau einen Schlüssel. Das Präfix muss mit einem Schrägstrich enden (/). Weitere Informationen finden Sie unter [Objekte mithilfe von Präfixen organisieren](https://docs.aws.amazon.com/AmazonS3/latest/userguide/using-prefixes.html) im *Amazon Simple Storage Service-Benutzerhandbuch*.
+ Ersetzen Sie amzn-s3-demo-bucket *-data* durch den Namen des Amazon S3 S3-Buckets, aus dem Daten importiert werden.
+ *data-bucket-key*Ersetzen Sie es durch den Schlüssel des Amazon S3 S3-Objekts, das Ihre Daten enthält. Jedes Objekt hat einen Schlüssel, der eine eindeutige Kennung ist. Jedes Objekt hat genau einen Schlüssel.
+ *data-bucket-version-id*Ersetzen Sie es durch die Versions-ID, um eine bestimmte Version des Amazon S3 S3-Objekts zu identifizieren, das Ihre Daten enthält. Dieser Parameter ist optional.
+ *column-name*Ersetzen Sie durch den in der CSV-Datei angegebenen Spaltennamen.
+ *job-name*Ersetzen Sie ihn durch einen eindeutigen Namen, der den Massenimportauftrag identifiziert.
+ *job-role-arn*Ersetzen Sie es durch die IAM-Rolle, die das Lesen von Amazon S3 S3-Daten ermöglicht AWS IoT SiteWise .
Stellen Sie sicher, dass Ihre Rolle über die im folgenden Beispiel gezeigten Berechtigungen verfügt. Ersetzen Sie amzn-s3-demo-bucket *-data* durch den Namen des Amazon S3 S3-Buckets, der Ihre Daten enthält. *amzn-s3-demo-bucket-for-errors*Ersetzen Sie es außerdem durch den Namen des Amazon S3 S3-Buckets, an den Fehler im Zusammenhang mit diesem Massenimportauftrag gesendet werden.    
****  

```
{
    "Version":"2012-10-17",		 	 	 
    "Statement": [
        {
            "Action": [
                "s3:GetObject",
                "s3:GetBucketLocation"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket-data",
                "arn:aws:s3:::amzn-s3-demo-bucket-data/*"
            ],
            "Effect": "Allow"
        },
        {
            "Action": [
                "s3:PutObject",
                "s3:GetObject",
                "s3:GetBucketLocation"
            ],
            "Resource": [
                "arn:aws:s3:::amzn-s3-demo-bucket-for-errors",
                "arn:aws:s3:::amzn-s3-demo-bucket-for-errors/*"
            ],
            "Effect": "Allow"
        }
    ]
}
```

```
{
   "adaptiveIngestion": adaptive-ingestion-flag,
   "deleteFilesAfterImport": delete-files-after-import-flag,       
   "errorReportLocation": { 
      "bucket": "amzn-s3-demo-bucket-for-errors",
      "prefix": "amzn-s3-demo-bucket-for-errors-prefix"
   },
   "files": [ 
      { 
         "bucket": "amzn-s3-demo-bucket-data",
         "key": "data-bucket-key",
         "versionId": "data-bucket-version-id"
      }
   ],
   "jobConfiguration": { 
      "fileFormat": { 
         "csv": { 
            "columnNames": [ "column-name" ]
         }
      }
   },
   "jobName": "job-name",
   "jobRoleArn": "job-role-arn"    
}
```

**Example response**  

```
{
   "jobId":"f8c031d0-01d1-4b94-90b1-afe8bb93b7e5",
   "jobStatus":"PENDING",
   "jobName":"myBulkImportJob"
}
```