

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

# 선형 학습자 하이퍼파라미터
<a name="ll_hyperparameters"></a>

다음 표에는 선형 학습자 알고리즘에 대한 하이퍼파라미터가 나와 있습니다. 이들은 사용자가 데이터로부터 모델 파라미터의 예측을 촉진하기 위해 설정하는 파라미터입니다. 먼저 반드시 설정해야 하는 필수 하이퍼파라미터가 알파벳 순으로 나열되어 있습니다. 그 다음에 설정할 수 있는 선택적 하이퍼파라미터가 알파벳 순으로 나열되어 있습니다. 하이퍼파라미터를 `auto`로 설정하면 Amazon SageMaker AI에서 자동으로 해당 하이퍼파라미터의 값을 계산하고 설정합니다.


| 파라미터 이름 | 설명 | 
| --- | --- | 
| num\$1classes |  응답 변수의 클래스 수. 이 알고리즘에서는 클래스에 `0`, ..., `num_classes - 1` 레이블이 지정되어 있다고 가정합니다. `predictor_type`이 `multiclass_classifier`인 경우 **필요함**. 그렇지 않으면 알고리즘에서 무시됩니다. 유효한 값: 정수(3\$11,000,000)  | 
| predictor\$1type |  대상 변수 유형을 바이너리 분류, 멀티클래스 분류 또는 회귀로 지정합니다. **필수** 유효값: `binary_classifier`, `multiclass_classifier` 또는 `regressor`  | 
| accuracy\$1top\$1k |  멀티클래스 분류의 top-k 정확도 지표를 계산하는 경우 *k*의 값. 모델이 실제 레이블에 top-k 점수 중 하나를 할당하면 예제의 점수가 정답으로 매겨집니다. **선택 사항** 유효한 값: 양수 기본값: 3   | 
| balance\$1multiclass\$1weights |  손실 함수에서 각 클래스에 동일한 중요도를 제공하는 클래스 가중치를 사용할지 여부를 지정합니다. `predictor_type`이 `multiclass_classifier`인 경우에만 사용합니다. **선택 사항** 유효값: `true`, `false`  기본값: `false`  | 
| beta\$11 |  1차 추정치에 대한 지수 감소율. `optimizer` 값이 `adam`일 경우에만 해당됩니다. **선택 사항** 유효한 값: `auto` 또는 0부터 1.0 사이의 부동 소수점 기본값: `auto`  | 
| beta\$12 |  2차 추정치에 대한 지수 감소율. `optimizer` 값이 `adam`일 경우에만 해당됩니다. **선택 사항** 유효한 값: `auto` 또는 0부터 1.0 사이의 부동 소수점 정수  기본값: `auto`  | 
| bias\$1lr\$1mult |  편향항에 대한 다른 학습률을 허용. 편이에 대한 실제 학습률은 `learning_rate` \$1 `bias_lr_mult`입니다. **선택 사항** 유효한 값: `auto` 또는 양의 부동 소수점 정수 기본값: `auto`  | 
| bias\$1wd\$1mult |  편향항에 대한 다른 정규화 허용. 편이에 대한 실제 L2 정규화 가중치는 `wd` \$1 `bias_wd_mult`입니다. 기본적으로 편향항에 대한 정규화는 없습니다. **선택 사항** 유효한 값: `auto` 또는 음수가 아닌 부동 소수점 정수 기본값: `auto`  | 
| binary\$1classifier\$1model\$1selection\$1criteria |  `predictor_type`이 `binary_classifier`로 설정된 경우 검증 데이터 세트에 대한 모델 평가 기준. 검증 데이터 세트를 제공하지 않은 경우에는 훈련 데이터 세트에 대한 모델 평가 기준입니다. 기준은 다음과 같습니다. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/sagemaker/latest/dg/ll_hyperparameters.html) **선택 사항** 유효한 값: `accuracy`, `f_beta`, `precision_at_target_recall`, `recall_at_target_precision` 또는 `loss_function` 기본값: `accuracy`  | 
| early\$1stopping\$1patience | 관련 지표에서 개선 사항이 없는 경우 훈련 완료 전 epoch 수. binary\$1classifier\$1model\$1selection\$1criteria에 값을 제공한 경우 지표는 해당 값입니다. 그렇지 않으면 지표는 loss 하이퍼파라미터에 대해 지정된 값과 동일합니다.지표는 검증 데이터에 따라 검증됩니다. 검증 데이터를 제공하지 않은 경우 지표는 항상 `loss` 파라미터에 지정된 값과 동일하고 훈련 데이터에 대해 평가됩니다. 조기 중지를 비활성화하려면 `early_stopping_patience`를 `epochs`에 대해 지정된 값보다 높은 값으로 설정하세요.**선택 사항**유효한 값: 양수기본값: 3 | 
| early\$1stopping\$1tolerance |  손실의 개선을 측정하는 상대 공차. 이전 최적 손실로 나눈 손실의 개선율이 이 값보다 작은 경우 조기 중지 시 개선이 0인 것으로 간주합니다. **선택 사항** 유효한 값: 양의 부동 소수점 정수 기본값: 0.001  | 
| epochs |  훈련 데이터의 최대 전달 횟수. **선택 사항** 유효한 값: 양수 기본 값: 15  | 
| f\$1beta |  바이너리 또는 멀티클래스 분류에 대한 F 점수 지표를 계산하는 경우 사용할 베타 값. `binary_classifier_model_selection_criteria`에 대해 지정된 값이 `f_beta`인 경우에도 사용됩니다. **선택 사항** 유효한 값: 양의 부동 소수점 정수 기본값: 1.0   | 
| feature\$1dim |  입력 데이터의 특징 수. **선택 사항** 유효한 값: `auto` 또는 양의 정수 기본값: `auto`  | 
| huber\$1delta |  Huber 손실에 대한 파라미터. 훈련 및 지표 검증 도중 델타보다 작은 오차에 대해서는 컴퓨팅 L2 손실, 델타보다 큰 오차에 대해서는 L1 손실. **선택 사항** 유효한 값: 양의 부동 소수점 정수 기본값: 1.0   | 
| init\$1bias |  편향항에 대한 초기 가중치. **선택 사항** 유효한 값: 부동 소수점 정수 기본값: 0  | 
| init\$1method |  모델 가중치에 사용되는 초기 분포 함수를 설정합니다. 함수는 다음과 같습니다. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/sagemaker/latest/dg/ll_hyperparameters.html) **선택 사항** 유효한 값: `uniform` 또는 `normal` 기본값: `uniform`  | 
| init\$1scale |  모델 가중치에 대한 최초 균등 분포를 조정합니다. `init_method` 하이퍼파라미터가 `uniform`으로 설정된 경우에만 적용됩니다. **선택 사항** 유효한 값: 양의 부동 소수점 정수 기본값: 0.07  | 
| init\$1sigma |  정규 분포에 대한 초기화 표준편차. `init_method` 하이퍼파라미터가 `normal`으로 설정된 경우에만 적용됩니다. **선택 사항** 유효한 값: 양의 부동 소수점 정수 기본 값: 0.01  | 
| l1 |  L1 정규화 파라미터. L1 정규화를 사용하지 않으려면 이 값을 0으로 설정합니다. **선택 사항** 유효한 값: `auto` 또는 음수가 아닌 부동 소수점 기본값: `auto`  | 
| learning\$1rate |  파라미터 업데이트를 위해 옵티마이저에서 사용하는 단계 크기. **선택 사항** 유효한 값: `auto` 또는 양의 부동 소수점 정수 기본값: `auto`, 이 값은 선택한 옵티마이저에 따라 달라집니다.  | 
| loss |  손실 함수를 지정합니다. 사용 가능한 손실 함수와 그 기본값은 `predictor_type`의 값에 따라 달라집니다. [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/sagemaker/latest/dg/ll_hyperparameters.html) 유효한 값: `auto`, `logistic`, `squared_loss`, `absolute_loss`, `hinge_loss`, `eps_insensitive_squared_loss`, `eps_insensitive_absolute_loss`, `quantile_loss` 또는 `huber_loss`  **선택 사항** 기본값: `auto`  | 
| loss\$1insensitivity |  엡실론의 영향을 받지 않는 손실 유형에 대한 파라미터. 훈련 및 지표 검증 도중 이 값보다 작은 모든 오차는 0으로 간주됩니다. **선택 사항** 유효한 값: 양의 부동 소수점 정수 기본 값: 0.01   | 
| lr\$1scheduler\$1factor |  매 `lr_scheduler_step` 하이퍼파라미터마다 학습률은 이 수치만큼 감소합니다. `use_lr_scheduler` 하이퍼파라미터가 `true`으로 설정된 경우에만 적용됩니다. **선택 사항** 유효한 값: `auto` 또는 0부터 1 사이의 양의 부동 소수점 정수 기본값: `auto`  | 
| lr\$1scheduler\$1minimum\$1lr |  학습률은 `lr_scheduler_minimum_lr`에 대해 설정된 값 미만으로 절대 감소하지 않습니다. `use_lr_scheduler` 하이퍼파라미터가 `true`으로 설정된 경우에만 적용됩니다. **선택 사항** 유효한 값: `auto` 또는 양의 부동 소수점 정수 기본값: `auto`  | 
| lr\$1scheduler\$1step |  학습률 감소 사이의 단계 수. `use_lr_scheduler` 하이퍼파라미터가 `true`으로 설정된 경우에만 적용됩니다. **선택 사항** 유효한 값: `auto` 또는 양의 정수 기본값: `auto`  | 
| margin |  `hinge_loss` 함수의 마진. **선택 사항** 유효한 값: 양의 부동 소수점 정수 기본값: 1.0  | 
| mini\$1batch\$1size |  데이터 반복자의 미니 배치당 관측치의 수. **선택 사항** 유효한 값: 양수 기본값: 1000  | 
| momentum |  `sgd` 옵티마이저의 모멘텀. **선택 사항** 유효한 값: `auto` 또는 0부터 1.0 사이의 부동 소수점 정수 기본값: `auto`  | 
| normalize\$1data |  훈련 전에 특징 데이터를 정규화합니다. 데이터 정규화는 각 특징에 대해 평균 값 0을 갖도록 이동하고 단위 표준편차를 갖도록 조정합니다. **선택 사항** 유효값: `auto`, `true` 또는 `false` 기본값: `true`  | 
| normalize\$1label |  레이블을 정규화합니다. 레이블 정규화는 평균 값 0을 갖도록 레이블을 이동하고 단위 표준편차를 갖도록 조정합니다. `auto` 기본값은 회귀 문제에서 레이블을 정규화하지만 분류 문제에서는 정규화하지 않습니다. 분류 문제의 경우 `normalize_label` 하이퍼파라미터를 `true`로 설정하면 알고리즘에서 무시됩니다. **선택 사항** 유효값: `auto`, `true` 또는 `false` 기본값: `auto`  | 
| num\$1calibration\$1samples |  (최적의 임계값을 찾은 경우) 모델 보정에 사용할 검증 데이터 세트의 관측치 수. **선택 사항** 유효한 값: `auto` 또는 양의 정수 기본값: `auto`  | 
| num\$1models |  병렬로 훈련할 모델 수. 기본값 `auto`의 경우 알고리즘이 훈련할 병렬 모델의 수를 결정합니다. 주어진 훈련 파라미터(정규화, 옵티마이저, 손실)에 따라 한 모델이 훈련되고, 나머지는 근접 파라미터에 따라 훈련됩니다. **선택 사항** 유효한 값: `auto` 또는 양의 정수 기본값: `auto`  | 
| num\$1point\$1for\$1scaler |  정규화 또는 비편향항 계산에 사용할 데이터 포인트의 수. **선택 사항** 유효한 값: 양수 기본값: 10,000  | 
| optimizer |  사용할 최적화 알고리즘. **선택 사항** 유효한 값: [\[See the AWS documentation website for more details\]](http://docs.aws.amazon.com/ko_kr/sagemaker/latest/dg/ll_hyperparameters.html) 기본값: `auto`. `auto`의 기본 설정은 `adam`입니다.  | 
| positive\$1example\$1weight\$1mult |  바이너리 분류자 훈련 시 양수 예제에 할당된 가중치. 음수 예제 가중치는 1로 고정됩니다. 이 알고리즘에서 음수 대 양수 예제 분류의 오차가 훈련 손실에 동일한 영향을 미치도록 가중치를 선택하려는 경우 `balanced`를 지정합니다.** 이 알고리즘이 성능을 최적화하는 가중치를 선택하도록 하려는 경우 `auto`를 지정합니다. **선택 사항** 유효한 값: `balanced`, `auto` 또는 양의 부동 소수점 정수 기본값: 1.0  | 
| quantile |  분위 손실에 대한 분위. 분위 q의 경우 이 모델은 `true_label`의 값을 가능성 q를 사용한 예측보다 크도록 예측을 생성하려고 합니다. **선택 사항** 유효한 값: 0부터 1 사이의 부동 소수점 정수 기본 값: 0.5  | 
| target\$1precision |  대상 정밀도. `binary_classifier_model_selection_criteria`가 `recall_at_target_precision`인 경우 재현율이 최대화된 상태에서는 정밀도가 이 값에서 유지됩니다. **선택 사항** 유효한 값: 0부터 1.0 사이의 부동 소수점 정수 기본값: 0.8  | 
| target\$1recall |  대상 재현율. `binary_classifier_model_selection_criteria`가 `precision_at_target_recall`인 경우 정밀도가 최대화된 상태에서는 재현율이 이 값에서 유지됩니다. **선택 사항** 유효한 값: 0부터 1.0 사이의 부동 소수점 정수 기본값: 0.8  | 
| unbias\$1data |  평균이 0이 되도록 훈련 전 특징을 비편향화합니다. `use_bias` 하이퍼파라미터가 `true`로 설정되어 있으므로 기본적으로 데이터는 비편향화됩니다. **선택 사항** 유효값: `auto`, `true` 또는 `false` 기본값: `auto`  | 
| unbias\$1label |  평균이 0이 되도록 훈련 전 레이블을 비편향화합니다. `use_bias` 하이퍼파라미터가 `true`로 설정된 경우에만 회귀에 적용됩니다. **선택 사항** 유효값: `auto`, `true` 또는 `false` 기본값: `auto`  | 
| use\$1bias |  모델이 편향항을 포함해야 할지 여부를 지정합니다. 편향항은 선형 방정식의 절편항입니다. **선택 사항** 유효한 값: `true` 또는 `false` 기본값: `true`  | 
| use\$1lr\$1scheduler |  학습률에 대한 스케줄러를 사용할지 여부. 스케줄러를 사용하려는 경우 `true`를 지정합니다. **선택 사항** 유효한 값: `true` 또는 `false` 기본값: `true`  | 
| wd |  가중치 감소 파라미터(L2 정규화 파라미터라고도 함). L2 정규화를 사용하지 않으려면 이 값을 0으로 설정합니다. **선택 사항** 유효한 값: `auto` 또는 음수가 아닌 부동 소수점 정수 기본값: `auto`  | 