

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# DeepAR 하이퍼파라미터
<a name="deepar_hyperparameters"></a>

다음 표에는 Amazon SageMaker AI DeepAR 예측 알고리즘으로 훈련할 때 설정할 수 있는 하이퍼파라미터가 나열되어 있습니다.


| 파라미터 이름 | 설명 | 
| --- | --- | 
| context\$1length |  예측 생성 전 모델이 확인하는 시간 지점의 수입니다. 이 파라미터의 값은 `prediction_length`와 동일해야 합니다. 모델은 또한 대상으로부터 시차가 발생한 입력을 수신하기 때문에 `context_length`는 일반적인 계절성보다 작을 수 있습니다. 예를 들어 일별 시계열은 연도별 계절성을 보유할 수 있습니다. 모델은 자동으로 1년의 시차를 포함시키기 때문에 컨텍스트 길이는 1년보다 짧을 수 있습니다. 모델이 고르는 시차 값은 시계열의 빈도에 따라 다릅니다. 예를 들어 일별 빈도의 시차 값은 1주, 2주, 3주, 4주 및 1년입니다. **필수** 유효한 값: 양수  | 
| epochs |  훈련 데이터의 최대 전달 횟수. 최적값은 데이터의 크기와 학습률에 따라 다릅니다. 또한 `early_stopping_patience` 섹션도 참조하세요. 일반적 값은 10\$11000입니다. **필수** 유효한 값: 양수  | 
| prediction\$1length |  모델이 예측을 위해 교육되는 시간 단계의 수이며, 예측 구간이라고도 합니다. 교육된 모델은 항상 이 길이로 예측을 생성합니다. 길이가 더 긴 예측은 생성할 수 없습니다. `prediction_length`는 모델 훈련 시 고정되어 나중에 변경할 수 없습니다. **필수** 유효한 값: 양수  | 
| time\$1freq |  데이터세트의 시계열 세부 수준. `time_freq`를 사용하여 적절한 날짜 요인(feature) 및 시차를 선택합니다. 모델은 다음 기본 빈도만 지원합니다. 또한 이러한 기본 빈도의 여러 번 반복도 지원합니다. 예를 들어, `5min`은 5분의 빈도를 지정합니다. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/sagemaker/latest/dg/deepar_hyperparameters.html) **필수** 유효한 값: *M*, *W*, *D*, *H*, 또는 *min* 앞에 오는 정수. 예를 들어 `5min`.  | 
| cardinality |  범주 요인(feature)(`cat`)을 사용하는 경우 `cardinality`는 범주 요인(feature)당 범주(그룹) 수를 지정하는 배열입니다. 데이터로부터 카디널리티를 추론하려면 이 값을 `auto`로 설정합니다. 또한 `auto` 모드는 데이터세트에 범주 요인(feature)이 사용되지 않는 경우 작동합니다. 이는 파라미터에 대한 권장 설정입니다. 카디널리티를 `ignore`로 설정하면 데이터에 범주 요인(feature)이 있더라도 DeepAR에 해당 요인(feature)을 사용하지 않도록 강제합니다. 추가 데이터 검증을 수행하기 위해 이 파라미터를 실제 값으로 명시적으로 설정할 수 있습니다. 예를 들어, 범주 요인(feature) 2개가 제공되는데, 첫 번째 요인(feature)에는 가능한 값이 2개, 다른 요인(feature)에는 3개 있는 경우에는 [2, 3]으로 설정합니다. 범주 요인(feature) 사용 방법에 대한 자세한 정보는 DeepAR의 기본 설명 페이지에서 데이터 섹션을 참조하세요. **선택 사항** 유효한 값: `auto`, `ignore`, 양의 정수 배열, 빈 문자열 또는  기본값: `auto`  | 
| dropout\$1rate |  훈련 도중 사용할 드롭아웃 비율. 이 모델은 존아웃 정규화를 사용합니다. 각각의 반복에서 숨겨진 신경의 임의 하위 세트는 업데이트되지 않습니다. 일반적인 값은 0.2보다 작습니다. **선택 사항** 유효한 값: 부동 소수점 기본값: 0.1  | 
| early\$1stopping\$1patience |  이 파라미터가 설정된 경우 `epochs`에서 지정된 횟수 내에 진행이 이루어지지 않은 경우 훈련이 중단됩니다. 손실이 가장 적은 모델이 최종 모델로 반환됩니다. **선택 사항** 유효한 값: 정수  | 
| embedding\$1dimension |  범주 요인(feature)당 학습된 임베딩 벡터의 크기(모든 범주 요인(feature)에 대해 동일한 값이 사용됨). DeepAR 모델은 범주 그룹화 요인(feature)이 제공된 경우 그룹 수준 시계열 패턴을 학습할 수 있습니다. 이를 위해 모델은 각 그룹에 대해 크기가 `embedding_dimension`인 임베딩 벡터를 학습하여 그룹의 모든 시계열에 있는 공통 속성을 캡처합니다. `embedding_dimension`의 크기가 클수록 모델이 더욱 복잡한 패턴을 캡처할 수 있습니다. 하지만 `embedding_dimension`이 증가하면 모델의 패턴 수가 증가하므로 이 파라미터를 정확하게 학습하려면 더 많은 훈련 데이터가 필요합니다. 이 파라미터의 일반적인 값은 10\$1100입니다. **선택 사항** 유효한 값: 양수 기본값: 10  | 
| learning\$1rate |  훈련에 사용되는 학습률. 일반적 값은 1e-4에서 1e-1입니다. **선택 사항** 유효한 값: 부동 소수점 기본값: 1e-3  | 
| likelihood |  모델은 확률론적 예측을 생성하고, 분포의 분위를 제공하고 샘플을 반환할 수 있습니다. 데이터에 따라 불확실성 추정에 사용할 적절한 가능도(노이즈 모델)를 선택합니다. 다음 가능도를 선택할 수 있습니다. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/sagemaker/latest/dg/deepar_hyperparameters.html) **선택 사항** 유효한 값: *gaussian*, *beta*, *negative-binomial*, *student-T* 또는 *deterministic-L1* 중 하나. 기본값: `student-T`  | 
| mini\$1batch\$1size |  훈련 도중 사용되는 미니 배치의 크기. 일반적 값은 32\$1512입니다. **선택 사항** 유효한 값: 양수 기본값: 128  | 
| num\$1cells |  RNN의 각 은닉층에서 사용할 셀의 수. 일반적 값은 30\$1100입니다. **선택 사항** 유효한 값: 양수 기본값: 40  | 
| num\$1dynamic\$1feat |  데이터에 제공된 `dynamic_feat`의 수. 데이터로부터 동적 요인(feature)의 수를 추론하려면 이 값을 `auto`로 설정합니다. 또한 `auto` 모드는 데이터세트에 동적 요인(feature)이 사용되지 않는 경우 작동합니다. 이는 파라미터에 대한 권장 설정입니다. 동적 요인(feature)이 데이터에 있더라도 DeepAR에서 동적 요인(feature)을 사용하지 않도록 강제하려면 `num_dynamic_feat`를 `ignore`로 설정합니다. 추가 데이터 검증을 수행하기 위해 이 파라미터를 실제 정수 값으로 명시적으로 설정할 수 있습니다. 예를 들어, 두 개의 동적 요인(feature)이 제공된 경우 2로 설정합니다. **선택 사항** 유효한 값: `auto`, `ignore`, 양의 정수 또는 빈 문자열 기본값: `auto`  | 
| num\$1eval\$1samples |  테스트 정확도 지표를 계산하는 데 시계열당 사용된 샘플 수. 이 파라미터는 훈련 또는 최종 모델에 대해 어떠한 영향도 미치지 않습니다. 특히, 여러 가지 다른 샘플을 사용해 모델을 쿼리할 수 있습니다. 이 파라미터는 훈련 후에 test 채널에서 보고된 정확도 점수에만 영향을 미칩니다. 값이 작을수록 평가 시간이 단축되지만 일반적으로 평가 점수가 더 좋지 않고 불확실성은 더 커집니다. 더 높은 분위수(예: 0.95)로 평가하는 경우에는 평가 샘플의 수를 늘리는 것이 중요할 수 있습니다. **선택 사항** 유효한 값: 정수 기본 값: 100  | 
| num\$1layers |  RNN의 은닉층 수. 일반적 값은 1\$14입니다. **선택 사항** 유효한 값: 양수 기본값: 2  | 
| test\$1quantiles |  test 채널에서 분위 손실을 계산할 분위. **선택 사항** 유효한 값: 부동 소수점 어레이 기본값: [0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9]  | 