

本文属于机器翻译版本。若本译文内容与英语原文存在差异，则一律以英文原文为准。

# CreateDatasetImportJob
<a name="API_CreateDatasetImportJob"></a>

创建将训练数据从数据源（Amazon S3 存储桶）导入到 Amazon Personalize 数据集的作业。要允许 Amazon Personalize 导入训练数据，您必须指定一个有权从数据源读取数据的 IAM 服务角色，因为 Amazon Personalize 会生成您的数据副本并在内部进行处理。有关授予对 Amazon S3 存储桶的访问权限的信息，请参阅[向 Amazon Personalize 授予访问 Amazon S3 资源的权限](https://docs.aws.amazon.com/personalize/latest/dg/granting-personalize-s3-access.html)。

如果您已经创建了推荐器或通过市场活动部署了自定义解决方案版本，则新批量记录如何影响建议取决于您使用的域使用案例或食谱。有关更多信息，请参阅[新数据如何影响实时建议](https://docs.aws.amazon.com/personalize/latest/dg/how-new-data-influences-recommendations.html)。

**重要**  
默认情况下，数据集导入作业会替换您批量导入的数据集中的任何现有数据。要在不替换现有数据的情况下添加新记录，请在 CreateDatasetImportJob 操作中为导入模式指定 “增量”。

 **状态** 

数据集导入作业可处于以下几种状态之一：
+ CREATE PENDING > CREATE IN\$1PROGRESS > ACTIVE - 或 - CREATE FAILED

要获取导入任务的状态，请致电 [DescribeDatasetImportJob](https://docs.aws.amazon.com/personalize/latest/dg/API_DescribeDatasetImportJob.html)，提供数据集导入任务的 Amazon 资源名称 (ARN)。当状态显示为 ACTIVE 时，数据集导入完成。如果状态显示为 CREATE FAILED，则响应中包含一个描述作业失败原因的 `failureReason` 键。

**注意**  
导入需要耗费时间。您必须等到状态显示为 ACTIVE，然后才能使用数据集训练模型。

**相关 APIs**
+  [ListDatasetImportJobs](https://docs.aws.amazon.com/personalize/latest/dg/API_ListDatasetImportJobs.html) 
+  [DescribeDatasetImportJob](https://docs.aws.amazon.com/personalize/latest/dg/API_DescribeDatasetImportJob.html) 

## 请求语法
<a name="API_CreateDatasetImportJob_RequestSyntax"></a>

```
{
   "datasetArn": "string",
   "dataSource": { 
      "dataLocation": "string"
   },
   "importMode": "string",
   "jobName": "string",
   "publishAttributionMetricsToS3": boolean,
   "roleArn": "string",
   "tags": [ 
      { 
         "tagKey": "string",
         "tagValue": "string"
      }
   ]
}
```

## 请求参数
<a name="API_CreateDatasetImportJob_RequestParameters"></a>

请求接受采用 JSON 格式的以下数据。

 ** [datasetArn](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-datasetArn"></a>
接收导入数据的数据集的 ARN。  
类型：字符串  
长度约束：最大长度为 256。  
模式：`arn:([a-z\d-]+):personalize:.*:.*:.+`  
是否必需：是

 ** [dataSource](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-dataSource"></a>
包含要导入的训练数据的 Amazon S3 桶。  
类型：[DataSource](API_DataSource.md) 对象  
是否必需：是

 ** [importMode](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-importMode"></a>
指定如何将新记录添加到现有数据集。默认导入模式为 `FULL`。如果您之前没有将批量记录导入数据集，则只能指定 `FULL`。  
+ 要覆盖数据集中的所有现有批量数据，请指定 `FULL`。您单独导入的数据不会被替换。
+ 要将新记录附加到数据集中的现有数据中，请指定 `INCREMENTAL`。Amazon Personalize 会将所有具有相同 ID 的记录替换为新记录。
类型：字符串  
有效值：`FULL | INCREMENTAL`  
必需：否

 ** [jobName](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-jobName"></a>
数据集导入作业的名称。  
类型：字符串  
长度限制：最小长度为 1。最大长度为 63。  
模式：`^[a-zA-Z0-9][a-zA-Z0-9\-_]*`  
是否必需：是

 ** [publishAttributionMetricsToS3](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-publishAttributionMetricsToS3"></a>
如果您创建了指标归因，请指定是否将此导入作业的指标发布到 Amazon S3  
类型：布尔值  
必需：否

 ** [roleArn](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-roleArn"></a>
有权读取 Amazon S3 数据来源的 IAM 角色的 ARN。  
类型：字符串  
长度约束：最大长度为 256。  
模式：`arn:([a-z\d-]+):iam::\d{12}:role/?[a-zA-Z_0-9+=,.@\-_/]+`  
必需：否

 ** [tags](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="personalize-CreateDatasetImportJob-request-tags"></a>
要应用于数据集导入作业的[标签](https://docs.aws.amazon.com/personalize/latest/dg/tagging-resources.html)列表。  
类型：[Tag](API_Tag.md) 对象数组  
数组成员：最少 0 个物品。最多 200 项。  
必需：否

## 响应语法
<a name="API_CreateDatasetImportJob_ResponseSyntax"></a>

```
{
   "datasetImportJobArn": "string"
}
```

## 响应元素
<a name="API_CreateDatasetImportJob_ResponseElements"></a>

如果此操作成功，则该服务将会发送回 HTTP 200 响应。

服务以 JSON 格式返回以下数据。

 ** [datasetImportJobArn](#API_CreateDatasetImportJob_ResponseSyntax) **   <a name="personalize-CreateDatasetImportJob-response-datasetImportJobArn"></a>
数据集导入作业的 ARN。  
类型：字符串  
长度约束：最大长度为 256。  
模式：`arn:([a-z\d-]+):personalize:.*:.*:.+`

## 错误
<a name="API_CreateDatasetImportJob_Errors"></a>

 ** InvalidInputException **   
为字段或参数提供有效值。  
HTTP 状态代码：400

 ** LimitExceededException **   
超出每秒请求次数的限制。  
HTTP 状态代码：400

 ** ResourceAlreadyExistsException **   
指定资源已经存在。  
HTTP 状态代码：400

 ** ResourceInUseException **   
指定的资源正在使用中。  
HTTP 状态代码：400

 ** ResourceNotFoundException **   
找不到指定的资源。  
HTTP 状态代码：400

 ** TooManyTagsException **   
您已超出您可以应用到此资源的最大标签数量。  
HTTP 状态代码：400

## 另请参阅
<a name="API_CreateDatasetImportJob_SeeAlso"></a>

有关以特定语言之一使用此 API 的更多信息 AWS SDKs，请参阅以下内容：
+  [AWS 命令行界面 V2](https://docs.aws.amazon.com/goto/cli2/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS 适用于.NET 的 SDK V4](https://docs.aws.amazon.com/goto/DotNetSDKV4/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS 适用于 C\$1\$1 的 SDK](https://docs.aws.amazon.com/goto/SdkForCpp/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS 适用于 Go v2 的 SDK](https://docs.aws.amazon.com/goto/SdkForGoV2/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS 适用于 Java 的 SDK V2](https://docs.aws.amazon.com/goto/SdkForJavaV2/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS JavaScript V3 版软件开发工具包](https://docs.aws.amazon.com/goto/SdkForJavaScriptV3/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS 适用于 Kotlin 的 SDK](https://docs.aws.amazon.com/goto/SdkForKotlin/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS 适用于 PHP 的 SDK V3](https://docs.aws.amazon.com/goto/SdkForPHPV3/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS Python 软件开发工具包](https://docs.aws.amazon.com/goto/boto3/personalize-2018-05-22/CreateDatasetImportJob) 
+  [AWS 适用于 Ruby V3 的 SDK](https://docs.aws.amazon.com/goto/SdkForRubyV3/personalize-2018-05-22/CreateDatasetImportJob) 