의미 체계 분할 하이퍼파라미터 - Amazon SageMaker

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

의미 체계 분할 하이퍼파라미터

다음 표에는 네트워크 아키텍처, 데이터 입력 및 교육을 위해 Amazon SageMaker 시맨틱 분할 알고리즘이 지원하는 하이퍼파라미터가 나열되어 있습니다. CreateTrainingJob 요청의 AlgorithmName에 훈련을 위한 의미 체계 분류를 지정합니다.

네트워크 아키텍처 하이퍼파라미터

파라미터 이름 설명
backbone

알고리즘의 인코더 구성 요소에 사용되는 백본

선택 사항

유효값: resnet-50, resnet-101

기본 값: resnet-50

use_pretrained_model

백본에 사전 훈련된 모델을 사용할지 여부

선택 사항

유효값: True, False

기본 값: True

algorithm

의미 체계 분할에 사용할 알고리즘

선택 사항

유효한 값:

기본 값: fcn

데이터 하이퍼파라미터

파라미터 이름 설명
num_classes

분할할 클래스 수

필수

유효한 값: 2 ≤ 양수 ≤ 254

num_training_samples

훈련 데이터의 샘플 수. 이 알고리즘은 이 값을 사용하여 학습률 스케줄러를 설정합니다.

필수

유효한 값: 양수

base_size

자르기 전에 이미지 크기를 재조정하는 방법을 정의합니다. 긴 크기의 길이는 0.5~2.0 사이의 난수를 곱하는 base_size로 설정되도록 이미지 크기가 재조정되고, 종횡비를 유지하기 위해 짧은 크기가 계산됩니다.

선택 사항

유효한 값: 양수 > 16

기본값: 520

crop_size

훈련 중 입력 이미지의 이미지 크기. base_size에 따라 입력 이미지의 크기를 임의로 재조정한 다음 측면 길이 crop_size로 이미지를 임의의 사각형으로 자릅니다. crop_size는 자동으로 8의 배수로 반올림됩니다.

선택 사항

유효한 값: 양수 > 16

기본값: 240

훈련 파라미터

파라미터 이름 설명
early_stopping

훈련 중 조기 중지 로직 사용 여부

선택 사항

유효값: True, False

기본 값: False

early_stopping_min_epochs

실행해야 하는 최소 epoch 수

선택 사항

유효한 값: 정수

기본값: 5

early_stopping_patience

알고리즘이 조기 중지를 강제하기 전에 성능 저하에 대한 내결함성을 충족하는 epoch 수

선택 사항

유효한 값: 정수

기본값: 4

early_stopping_tolerance

훈련 작업 mIOU에서 점수의 상대적 개선이 이 값보다 작은 경우 조기 중지는 해당 epoch가 개선되지 않았다고 간주합니다. early_stopping = True인 경우에만 사용합니다.

선택 사항

유효한 값: 0 ≤ 부동 소수점 ≤ 1

기본 값: 0.0

epochs

훈련할 epoch 수

선택 사항

유효한 값: 양수

기본값: 10

gamma1

rmsprop에 대한 기울기 제곱의 이동 평균에 대한 감소 계수. rmsprop에만 사용됩니다.

선택 사항

유효한 값: 0 ≤ 부동 소수점 ≤ 1

기본 값: 0.9

gamma2

rmsprop에 대한 모멘텀 계수

선택 사항

유효한 값: 0 ≤ 부동 소수점 ≤ 1

기본 값: 0.9

learning_rate

초기 학습률.

선택 사항

유효한 값: 0 < 부동 소수점 ≤ 1

기본값: 0.001

lr_scheduler

시간에 따른 감소를 제어하는 학습률 일정의 셰이프(모양)

선택 사항

유효한 값:

  • step: lr_scheduler_step에 의해 지정된 에포크 이후 학습률이 lr_scheduler_factor만큼 감소(곱하기) 되는 단계적 감쇠.

  • poly: 다항 함수를 사용하는 부드러운 감소입니다.

  • cosine: 코사인 함수를 사용하는 부드러운 감소입니다.

기본 값: poly

lr_scheduler_factor

lr_scheduler이(가) step(으)로 설정된 경우, lr_scheduler_step에 의해 지정된 각 에포크 이후 learning_rate을(를) 감산(곱하기) 할 비율입니다. 그렇지 않으면 무시됩니다.

선택 사항

유효한 값: 0 ≤ 부동 소수점 ≤ 1

기본값: 0.1

lr_scheduler_step

learning_rate이(가) lr_scheduler_factor(으)로 감소(곱하기)된 후 쉼표로 구분된 에포크 목록입니다. 예를 들어 값이 "10, 20"(으)로 설정된 경우 learning-rate은(는) 10번째 에포크 이후 lr_scheduler_factor만큼 감소하고, 20번째 에포크 이후 이 요소만큼 다시 감소합니다.

lr_scheduler이(가) step(으)로 설정된 경우 조건부 필수. 그렇지 않으면 무시됩니다.

유효한 값: 문자열

기본값: (사용 시 값이 필요하므로 기본값은 없습니다.)

mini_batch_size

교육용 배치 크기. mini_batch_size가 크면 일반적으로 훈련 속도가 빨라지지만 메모리 부족해질 수 있습니다. 메모리 사용량은 mini_batch_sizeimage_shape 파라미터의 값과 백본 아키텍처의 영향을 받습니다.

선택 사항

유효한 값: 양수

기본값: 16

momentum

sgd 옵티마이저의 모멘텀. 다른 옵티마이저를 사용하는 경우 의미 체계 분할 알고리즘은 이 파라미터를 무시합니다.

선택 사항

유효한 값: 0 < 부동 소수점 ≤ 1

기본 값: 0.9

optimizer

옵티마이저 유형. 옵티마이저에 대한 자세한 내용을 보려면 해당 링크를 선택하십시오.

선택 사항

유효한 값: adam, adagrad, nag, rmsprop, sgd

기본 값: sgd

syncbn

True로 설정하면 GPU에서 처리된 모든 샘플에 대한 배치 정규화 평균과 분산이 계산됩니다.

선택 사항

유효값: True, False

기본 값: False

validation_mini_batch_size

검증용 배치 크기. mini_batch_size가 크면 일반적으로 훈련 속도가 빨라지지만 메모리기 부족해질 수 있습니다. 메모리 사용량은 mini_batch_sizeimage_shape 파라미터의 값과 백본 아키텍처의 영향을 받습니다.

  • 이미지를 자르지 않고 전체 이미지에 대한 검증에 점수를 매기려면 이 파라미터를 1로 설정합니다. 전에 이미지에 대한 성능을 전체적으로 측정하려면 이 옵션을 사용합니다.

    참고

    validation_mini_batch_size 파라미터를 1로 설정하면 이 알고리즘이 모든 이미지에 대해 새 네트워크 모델을 생성합니다. 하지만 검증 및 훈련 속도가 느려질 수 있습니다.

  • 평가 중 crop_size 파라미터에 지정된 크기로 이미지를 자르려면 이 파라미터를 1보다 큰 값으로 설정합니다.

선택 사항

유효한 값: 양수

기본값: 16

weight_decay

sgd 옵티마이저에 대한 가중치 감소 계수. 다른 옵티마이저를 사용하는 경우 이 알고리즘은 이 파라미터를 무시합니다.

선택 사항

유효한 값: 0 < 부동 소수점 < 1

기본값: 0.0001