

 Amazon Forecast 不再提供給新客戶。Amazon Forecast 的現有客戶可以繼續正常使用服務。[進一步了解」](https://aws.amazon.com/blogs/machine-learning/transition-your-amazon-forecast-usage-to-amazon-sagemaker-canvas/)

本文為英文版的機器翻譯版本，如內容有任何歧義或不一致之處，概以英文版為準。

# CreateDatasetImportJob
<a name="API_CreateDatasetImportJob"></a>

將您的訓練資料匯入 Amazon Forecast 資料集。您可以在 Amazon Simple Storage Service (Amazon S3) 儲存貯體中提供訓練資料的位置，以及您要匯入資料的資料集的 Amazon Resource Name (ARN)。

**重要**  
Amazon Forecast 不再提供給新客戶。Amazon Forecast 的現有客戶可以繼續正常使用服務。[進一步了解」](https://aws.amazon.com/blogs/machine-learning/transition-your-amazon-forecast-usage-to-amazon-sagemaker-canvas/) 

您必須指定 [DataSource](https://docs.aws.amazon.com/forecast/latest/dg/API_DataSource.html) 物件，其中包含 Amazon Forecast 可以擔任的 AWS Identity and Access Management (IAM) 角色來存取資料，因為 Amazon Forecast 會複製您的資料並在內部 AWS 系統中處理資料。如需詳細資訊，請參閱[設定許可](https://docs.aws.amazon.com/forecast/latest/dg/aws-forecast-iam-roles.html)。

訓練資料必須是 CSV 或 Parquet 格式。分隔符號必須是逗號 (，)。

您可以指定特定檔案、S3 儲存貯體或 S3 儲存貯體中資料夾的路徑。對於後兩種情況，Amazon Forecast 會匯入所有檔案，上限為 10，000 個檔案。

由於資料集匯入不會彙總，因此您最近的資料集匯入是在訓練預測器或產生預測時使用的資料集匯入。請確定您最近的資料集匯入包含您想要建模的所有資料，而不只是自上次匯入以來所收集的新資料。

若要取得依指定條件篩選的所有資料集匯入任務清單，請使用 [ListDatasetImportJobs](https://docs.aws.amazon.com/forecast/latest/dg/API_ListDatasetImportJobs.html) 操作。

## 請求語法
<a name="API_CreateDatasetImportJob_RequestSyntax"></a>

```
{
   "DatasetArn": "string",
   "DatasetImportJobName": "string",
   "DataSource": { 
      "S3Config": { 
         "KMSKeyArn": "string",
         "Path": "string",
         "RoleArn": "string"
      }
   },
   "Format": "string",
   "GeolocationFormat": "string",
   "ImportMode": "string",
   "Tags": [ 
      { 
         "Key": "string",
         "Value": "string"
      }
   ],
   "TimestampFormat": "string",
   "TimeZone": "string",
   "UseGeolocationForTimeZone": boolean
}
```

## 請求參數
<a name="API_CreateDatasetImportJob_RequestParameters"></a>

請求接受採用 JSON 格式的下列資料。

 ** [DatasetArn](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="forecast-CreateDatasetImportJob-request-DatasetArn"></a>
您要匯入資料的 Amazon Forecast 資料集的 Amazon Resource Name (ARN)。  
類型：字串  
長度限制：長度上限為 256。  
模式：`arn:([a-z\d-]+):forecast:.*:.*:.+`  
必要：是

 ** [DatasetImportJobName](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="forecast-CreateDatasetImportJob-request-DatasetImportJobName"></a>
資料集匯入任務的名稱。我們建議您在名稱中包含目前的時間戳記，例如 `20190721DatasetImport`。這可協助您避免取得`ResourceAlreadyExistsException`例外狀況。  
類型：字串  
長度限制：長度下限為 1。長度上限為 63。  
模式：`^[a-zA-Z][a-zA-Z0-9_]*`  
必要：是

 ** [DataSource](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="forecast-CreateDatasetImportJob-request-DataSource"></a>
要匯入的訓練資料位置和 AWS Identity and Access Management (IAM) 角色，Amazon Forecast 可以擔任該角色來存取資料。訓練資料必須存放在 Amazon S3 儲存貯體中。  
如果使用加密， `DataSource` 必須包含 AWS Key Management Service (KMS) 金鑰，且 IAM 角色必須允許 Amazon Forecast 許可存取金鑰。KMS 金鑰和 IAM 角色必須符合 [CreateDataset](https://docs.aws.amazon.com/forecast/latest/dg/API_CreateDataset.html) 操作的 `EncryptionConfig` 參數中指定的金鑰和 IAM 角色。  
類型：[DataSource](API_DataSource.md) 物件  
必要：是

 ** [Format](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="forecast-CreateDatasetImportJob-request-Format"></a>
匯入資料的格式，CSV 或 PARQUET。預設值為 CSV。  
類型：字串  
長度限制：長度上限為 7。  
模式：`^CSV|PARQUET$`  
必要：否

 ** [GeolocationFormat](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="forecast-CreateDatasetImportJob-request-GeolocationFormat"></a>
地理位置屬性的格式。地理位置屬性的格式有兩種：  
+  `LAT_LONG` - 十進位格式的緯度和經度 （範例：47.61\$1-122.33)。
+  `CC_POSTALCODE` （僅限美國） - 國家/地區碼 （美國），後面接著 5 位數郵遞區號 （範例：US\$198121)。
類型：字串  
長度限制：長度上限為 256。  
模式：`^[a-zA-Z0-9_]+$`  
必要：否

 ** [ImportMode](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="forecast-CreateDatasetImportJob-request-ImportMode"></a>
指定資料集匯入任務是 `FULL`還是 `INCREMENTAL`匯入。`FULL` 資料集匯入會將所有現有資料取代為新匯入的資料。`INCREMENTAL` 匯入會將匯入的資料附加至現有資料。  
類型：字串  
有效值:`FULL | INCREMENTAL`   
必要：否

 ** [Tags](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="forecast-CreateDatasetImportJob-request-Tags"></a>
您套用至資料集匯入任務的選用中繼資料，可協助您分類和組織這些中繼資料。每個標籤皆包含由您定義的一個金鑰與一個選用值。  
以下基本限制適用於 標籤：  
+ 每個資源的標籤數量上限 - 50。
+ 針對每一個資源，每個標籤鍵必須是唯一的，且每個標籤鍵只能有一個值。
+ 金鑰長度上限 - UTF-8 中的 128 個 Unicode 字元。
+ 最大值長度 - UTF-8 256 個 Unicode 字元。
+ 如果您的標記結構描述是跨多項服務和資源使用，請記得其他服務可能會有字元使用限制。通常允許的字元為：以 UTF-8 表示的字母、數字和空格，以及下列字元：\$1 - = . \$1 ： / @。
+ 標籤鍵與值皆區分大小寫。
+ 請勿使用 `aws:`、 `AWS:`或任何大寫或小寫的組合，例如金鑰的字首，因為其保留供 AWS 使用。您無法使用此字首編輯或刪除標籤索引鍵。值可以有此字首。如果標籤值具有 `aws` 作為其字首，但金鑰沒有，則預測會將其視為使用者標籤，並計入 50 個標籤的限制。只有 金鑰字首的標籤`aws`不會計入每個資源限制的標籤。
類型：[Tag](API_Tag.md) 物件陣列  
陣列成員：項目數下限為 0。項目數上限為 200。  
必要：否

 ** [TimestampFormat](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="forecast-CreateDatasetImportJob-request-TimestampFormat"></a>
資料集中的時間戳記格式。您指定的格式取決於建立資料集時`DataFrequency`指定的 。支援下列格式  
+ "yyyy-MM-dd"

  對於下列資料頻率：Y、M、W 和 D
+ "yyyy-MM-dd HH:mm:ss"

  對於下列資料頻率：H、30 分鐘、15 分鐘和 1 分鐘；以及選擇性：Y、M、W 和 D
如果未指定格式，Amazon Forecast 預期格式為 "yyyy-MM-dd HH：mm：ss"。  
類型：字串  
長度限制：長度上限為 256。  
模式：`^[a-zA-Z0-9\-\:\.\,\'\s]+$`  
必要：否

 ** [TimeZone](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="forecast-CreateDatasetImportJob-request-TimeZone"></a>
資料集中每個項目的單一時區。此選項非常適合具有單一時區內所有時間戳記的資料集，或將所有時間戳記標準化為單一時區。  
如需有效時區名稱的完整清單，請參閱 [Joda-Time API](http://joda-time.sourceforge.net/timezones.html)。  
類型：字串  
長度限制：長度上限為 256。  
模式：`^[a-zA-Z0-9\/\+\-\_]+$`  
必要：否

 ** [UseGeolocationForTimeZone](#API_CreateDatasetImportJob_RequestSyntax) **   <a name="forecast-CreateDatasetImportJob-request-UseGeolocationForTimeZone"></a>
從地理位置屬性自動衍生時區資訊。此選項適用於在多個時區包含時間戳記的資料集，這些時間戳記以本機時間表示。  
類型：布林值  
必要：否

## 回應語法
<a name="API_CreateDatasetImportJob_ResponseSyntax"></a>

```
{
   "DatasetImportJobArn": "string"
}
```

## 回應元素
<a name="API_CreateDatasetImportJob_ResponseElements"></a>

如果動作成功，則服務傳回 HTTP 200 回應。

服務會傳回下列 JSON 格式的資料。

 ** [DatasetImportJobArn](#API_CreateDatasetImportJob_ResponseSyntax) **   <a name="forecast-CreateDatasetImportJob-response-DatasetImportJobArn"></a>
資料集匯入任務的 Amazon Resource Name (ARN)。  
類型：字串  
長度限制：長度上限為 256。  
模式：`arn:([a-z\d-]+):forecast:.*:.*:.+`

## 錯誤
<a name="API_CreateDatasetImportJob_Errors"></a>

 ** InvalidInputException **   
我們無法處理請求，因為它包含無效的值或超過有效範圍的值。  
HTTP 狀態碼：400

 ** LimitExceededException **   
已超過每個帳戶的資源數量限制。  
HTTP 狀態碼：400

 ** ResourceAlreadyExistsException **   
已有具有此名稱的資源。請用不同的名稱再試一次。  
HTTP 狀態碼：400

 ** ResourceInUseException **   
指定的資源正在使用中。  
HTTP 狀態碼：400

 ** ResourceNotFoundException **   
我們找不到具有該 Amazon Resource Name (ARN) 的資源。請檢查 ARN，然後再試一次。  
HTTP 狀態碼：400

## 另請參閱
<a name="API_CreateDatasetImportJob_SeeAlso"></a>

如需在其中一種語言特定 AWS SDKs中使用此 API 的詳細資訊，請參閱下列內容：
+  [AWS 命令列界面 V2](https://docs.aws.amazon.com/goto/cli2/forecast-2018-06-26/CreateDatasetImportJob) 
+  [AWS 適用於 .NET V4 的 SDK](https://docs.aws.amazon.com/goto/DotNetSDKV4/forecast-2018-06-26/CreateDatasetImportJob) 
+  [AWS 適用於 C\$1\$1 的 SDK](https://docs.aws.amazon.com/goto/SdkForCpp/forecast-2018-06-26/CreateDatasetImportJob) 
+  [AWS 適用於 Go 的 SDK v2](https://docs.aws.amazon.com/goto/SdkForGoV2/forecast-2018-06-26/CreateDatasetImportJob) 
+  [AWS 適用於 Java V2 的 SDK](https://docs.aws.amazon.com/goto/SdkForJavaV2/forecast-2018-06-26/CreateDatasetImportJob) 
+  [AWS 適用於 JavaScript V3 的 SDK](https://docs.aws.amazon.com/goto/SdkForJavaScriptV3/forecast-2018-06-26/CreateDatasetImportJob) 
+  [AWS 適用於 Kotlin 的 SDK](https://docs.aws.amazon.com/goto/SdkForKotlin/forecast-2018-06-26/CreateDatasetImportJob) 
+  [AWS 適用於 PHP V3 的 SDK](https://docs.aws.amazon.com/goto/SdkForPHPV3/forecast-2018-06-26/CreateDatasetImportJob) 
+  [AWS 適用於 Python 的 SDK](https://docs.aws.amazon.com/goto/boto3/forecast-2018-06-26/CreateDatasetImportJob) 
+  [AWS 適用於 Ruby V3 的 SDK](https://docs.aws.amazon.com/goto/SdkForRubyV3/forecast-2018-06-26/CreateDatasetImportJob) 