

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

# CreateDatasetImportJob
<a name="API_CreateDatasetImportJob"></a>

Erstellt einen Job, der Trainingsdaten aus Ihrer Datenquelle (einem Amazon S3 S3-Bucket) in einen Amazon Personalize importiert. Damit Amazon Personalize die Trainingsdaten importieren kann, müssen Sie eine IAM-Servicerolle angeben, die berechtigt ist, aus der Datenquelle zu lesen, da Amazon Personalize eine Kopie Ihrer Daten erstellt und diese intern verarbeitet. Informationen zur Gewährung des Zugriffs auf Ihren Amazon S3 S3-Bucket finden Sie unter [Amazon Personalize Access to Amazon S3 S3-Ressourcen gewähren](https://docs.aws.amazon.com/personalize/latest/dg/granting-personalize-s3-access.html). 

Wenn Sie bereits eine Empfehlung erstellt oder eine benutzerdefinierte Lösungsversion mit einer Kampagne bereitgestellt haben, hängt die Art und Weise, wie sich neue Sammeleinträge auf Empfehlungen auswirken, vom verwendeten Domain-Anwendungsfall oder Rezept ab. Weitere Informationen finden Sie unter [Wie neue Daten Empfehlungen in Echtzeit beeinflussen](https://docs.aws.amazon.com/personalize/latest/dg/how-new-data-influences-recommendations.html).

**Wichtig**  
Standardmäßig ersetzt ein Datensatz-Importjob alle vorhandenen Daten in dem Datensatz, den Sie in großen Mengen importiert haben. Um neue Datensätze hinzuzufügen, ohne vorhandene Daten zu ersetzen, geben Sie INCREMENTAL für den Importmodus im CreateDatasetImportJob Vorgang an.

 **Status** 

Ein Import-Auftrag für Datensätze kann sich in einem der folgenden Zustände befinden:
+ CREATE PENDING > CREATE IN\$1PROGRESS > ACTIVE -oder- CREATE FAILED

Rufen Sie an, um den Status des Importjobs abzurufen [DescribeDatasetImportJob](https://docs.aws.amazon.com/personalize/latest/dg/API_DescribeDatasetImportJob.html), und geben Sie dabei den Amazon-Ressourcennamen (ARN) des Datensatz-Importjobs an. Der Dataset-Importvorgang ist abgeschlossen, wenn der Status als AKTIV angezeigt wird. Wenn der Status CREATE FAILED lautet, enthält die Antwort einen `failureReason` Schlüssel, der beschreibt, warum der Job fehlgeschlagen ist.

**Anmerkung**  
Das Importieren ist zeitaufwändig. Sie müssen warten, bis der Status als AKTIV angezeigt wird, bevor Sie ein Modell mit dem Datensatz trainieren.

**Verwandt APIs**
+  [ListDatasetImportJobs](https://docs.aws.amazon.com/personalize/latest/dg/API_ListDatasetImportJobs.html) 
+  [DescribeDatasetImportJob](https://docs.aws.amazon.com/personalize/latest/dg/API_DescribeDatasetImportJob.html) 

## Anforderungssyntax
<a name="API_CreateDatasetImportJob_RequestSyntax"></a>

```
{
   "datasetArn": "string",
   "dataSource": { 
      "dataLocation": "string"
   },
   "importMode": "string",
   "jobName": "string",
   "publishAttributionMetricsToS3": boolean,
   "roleArn": "string",
   "tags": [ 
      { 
         "tagKey": "string",
         "tagValue": "string"
      }
   ]
}
```

## Anforderungsparameter
<a name="API_CreateDatasetImportJob_RequestParameters"></a>

Die Anforderung akzeptiert die folgenden Daten im JSON-Format.

 ** [datasetArn](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-datasetArn"></a>
Der ARN des Datensatzes, der die importierten Daten empfängt.  
Typ: Zeichenfolge  
Längenbeschränkungen: Maximale Länge beträgt 256 Zeichen.  
Pattern: `arn:([a-z\d-]+):personalize:.*:.*:.+`   
Erforderlich: Ja

 ** [dataSource](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-dataSource"></a>
Der Amazon-S3-Bucket mit den zu importierenden Trainingsdaten.  
Typ: [DataSource](API_DataSource.md) Objekt  
Erforderlich: Ja

 ** [importMode](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-importMode"></a>
Geben Sie an, wie die neuen Datensätze zu einem vorhandenen Datensatz hinzugefügt werden sollen. Der Standard-Importmodus ist`FULL`. Wenn Sie zuvor keine Massendatensätze in den Datensatz importiert haben, können Sie nur Folgendes angeben`FULL`.  
+ Geben Sie `FULL` an, dass alle vorhandenen Massendaten in Ihrem Datensatz überschrieben werden sollen. Daten, die Sie einzeln importiert haben, werden nicht ersetzt.
+ Geben Sie `INCREMENTAL` an, dass die neuen Datensätze an die vorhandenen Daten in Ihrem Datensatz angehängt werden sollen. Amazon Personalize ersetzt jeden Datensatz mit derselben ID durch den neuen.
Typ: Zeichenfolge  
Zulässige Werte: `FULL | INCREMENTAL`   
Erforderlich: Nein

 ** [jobName](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-jobName"></a>
Der Name für den Datensatz-Importjob.  
Typ: Zeichenfolge  
Längenbeschränkungen: Minimale Länge beträgt 1 Zeichen. Maximale Länge beträgt 63 Zeichen.  
Pattern: `^[a-zA-Z0-9][a-zA-Z0-9\-_]*`   
Erforderlich: Ja

 ** [publishAttributionMetricsToS3](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-publishAttributionMetricsToS3"></a>
Wenn Sie eine Metrik-Attribution erstellt haben, geben Sie an, ob Metriken für diesen Importauftrag in Amazon S3 veröffentlicht werden sollen  
Typ: Boolesch  
Erforderlich: Nein

 ** [roleArn](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-roleArn"></a>
Der ARN der IAM-Rolle, die für das Lesen aus der Amazon-S3-Datenquelle berechtigt ist.  
Typ: Zeichenfolge  
Längenbeschränkungen: Maximale Länge beträgt 256 Zeichen.  
Pattern: `arn:([a-z\d-]+):iam::\d{12}:role/?[a-zA-Z_0-9+=,.@\-_/]+`   
Erforderlich: Nein

 ** [tags](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-tags"></a>
Eine Liste von [Tags](https://docs.aws.amazon.com/personalize/latest/dg/tagging-resources.html), die auf den Datensatz-Importjob angewendet werden sollen.  
Typ: Array von [Tag](API_Tag.md)-Objekten  
Array-Mitglieder: Die Mindestanzahl beträgt 0 Elemente. Die maximale Anzahl beträgt 200 Elemente.  
Erforderlich: Nein

## Antwortsyntax
<a name="API_CreateDatasetImportJob_ResponseSyntax"></a>

```
{
   "datasetImportJobArn": "string"
}
```

## Antwortelemente
<a name="API_CreateDatasetImportJob_ResponseElements"></a>

Wenn die Aktion erfolgreich ist, sendet der Service eine HTTP 200-Antwort zurück.

Die folgenden Daten werden vom Service im JSON-Format zurückgegeben.

 ** [datasetImportJobArn](#API_CreateDatasetImportJob_ResponseSyntax) **   <a name="personalize-CreateDatasetImportJob-response-datasetImportJobArn"></a>
Der ARN des Datensatz-Import-Auftrags.  
Typ: Zeichenfolge  
Längenbeschränkungen: Maximale Länge beträgt 256 Zeichen.  
Pattern: `arn:([a-z\d-]+):personalize:.*:.*:.+` 

## Fehler
<a name="API_CreateDatasetImportJob_Errors"></a>

 ** InvalidInputException **   
Geben Sie einen gültigen Wert für das Feld oder den Parameter an.  
HTTP-Statuscode: 400

 ** LimitExceededException **   
Das Limit für die Anzahl der Anfragen pro Sekunde wurde überschritten.  
HTTP-Statuscode: 400

 ** ResourceAlreadyExistsException **   
Die angegebene Ressource ist bereits vorhanden.  
HTTP-Statuscode: 400

 ** ResourceInUseException **   
Die angegebene Ressource wird verwendet.  
HTTP-Statuscode: 400

 ** ResourceNotFoundException **   
Die angegebene Ressource konnte nicht gefunden werden.  
HTTP-Statuscode: 400

 ** TooManyTagsException **   
Sie haben die maximale Anzahl von Tags überschritten, die Sie auf diese Ressource anwenden können.   
HTTP-Statuscode: 400

## Weitere Informationen finden Sie unter:
<a name="API_CreateDatasetImportJob_SeeAlso"></a>

Weitere Informationen zur Verwendung dieser API in einer der sprachspezifischen Sprachen AWS SDKs finden Sie im Folgenden:
+  [AWS Befehlszeilenschnittstelle V2](https://docs.aws.amazon.com/goto/cli2/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS SDK for .NET V4](https://docs.aws.amazon.com/goto/DotNetSDKV4/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS SDK for C\$1\$1](https://docs.aws.amazon.com/goto/SdkForCpp/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS SDK for Go v2](https://docs.aws.amazon.com/goto/SdkForGoV2/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS SDK for Java V2](https://docs.aws.amazon.com/goto/SdkForJavaV2/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS SDK für JavaScript V3](https://docs.aws.amazon.com/goto/SdkForJavaScriptV3/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS SDK für Kotlin](https://docs.aws.amazon.com/goto/SdkForKotlin/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS SDK for PHP V3](https://docs.aws.amazon.com/goto/SdkForPHPV3/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS SDK für Python](https://docs.aws.amazon.com/goto/boto3/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS SDK for Ruby V3](https://docs.aws.amazon.com/goto/SdkForRubyV3/personalize-2018-05-22/CreateDatasetImportJob) 