本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。
語意分段超參數
下表列出 Amazon SageMaker 語意分割演算法支援的網路架構、資料輸入和訓練的超參數。您可以在 CreateTrainingJob
請求的 AlgorithmName
中,針對訓練指定語意分段。
網路架構超參數
參數名稱 | 描述 |
---|---|
backbone |
用於演算法編碼器元件的骨幹。 選用 有效值: 預設值: |
use_pretrained_model |
預先訓練模型是否會用於骨幹。 選用 有效值: 預設值: |
algorithm |
要用於語意分段的演算法。 選用 有效值: 預設值: |
資料超參數
參數名稱 | 描述 |
---|---|
num_classes |
要分段的類別數。 必要 有效值:2 ≤ 正整數 ≤ 254 |
num_training_samples |
訓練資料中的樣本數。演算法會使用此值設定學習率排程器。 必要 有效值:正整數 |
base_size |
定義影像在裁剪前的重新縮放方式。影像會重新縮放,將較長一邊的大小長度設為 選用 有效值:大於 16 的正整數 預設值:520 |
crop_size |
訓練期間輸入的影像大小。我們會根據 選用 有效值:大於 16 的正整數 預設值:240 |
訓練超參數
參數名稱 | 描述 |
---|---|
early_stopping |
是否要在訓練期間使用提前停止邏輯。 選用 有效值: 預設值: |
early_stopping_min_epochs |
必須執行的最低 epoch 數。 選用 有效值:整數 預設值:5 |
early_stopping_patience |
在演算法強制提前停止前,需符合較低效能容忍度的 epoch 數。 選用 有效值:整數 預設值:4 |
early_stopping_tolerance |
如果訓練任務分數 (mIOU) 的相對改善小於此值,則提前停止會將 epoch 視為尚未改善。只有在 選用 有效值:0 ≤ 浮點數 ≤ 1 預設值:0.0 |
epochs |
用於訓練的 epoch 數。 選用 有效值:正整數 預設值:10 |
gamma1 |
選用 有效值:0 ≤ 浮點數 ≤ 1 預設值:0.9 |
gamma2 |
選用 有效值:0 ≤ 浮點數 ≤ 1 預設值:0.9 |
learning_rate |
初始學習率。 選用 有效值:0 < 浮點數 ≤ 1 預設值:0.001 |
lr_scheduler |
控制其隨時間減少值的學習率排程形狀。 選用 有效值:
預設值: |
lr_scheduler_factor |
假設 選用 有效值:0 ≤ 浮點數 ≤ 1 預設值:0.1 |
lr_scheduler_step |
依 如果 有效值:字串 預設值:(無預設值,使用時則此值為必要。) |
mini_batch_size |
訓練的批次大小。使用較大的 選用 有效值:正整數 預設值:16 |
momentum |
選用 有效值:0 < 浮點數 ≤ 1 預設值:0.9 |
optimizer |
最佳化工具類型。如需最佳化工具的詳細資訊,請選擇適當連結: 選用 有效值: 預設值: |
syncbn |
如果設定為 選用 有效值: 預設值: |
validation_mini_batch_size |
驗證的批次大小。使用較大的
選用 有效值:正整數 預設值:16 |
weight_decay |
選用 有效值:0 < 浮點數 < 1 預設值:0.0001 |