기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
의미 체계 분할 하이퍼파라미터
다음 표에는 네트워크 아키텍처, 데이터 입력 및 교육을 위해 Amazon SageMaker 시맨틱 분할 알고리즘이 지원하는 하이퍼파라미터가 나열되어 있습니다. CreateTrainingJob
요청의 AlgorithmName
에 훈련을 위한 의미 체계 분류를 지정합니다.
네트워크 아키텍처 하이퍼파라미터
파라미터 이름 | 설명 |
---|---|
backbone |
알고리즘의 인코더 구성 요소에 사용되는 백본 선택 사항 유효값: 기본 값: |
use_pretrained_model |
백본에 사전 훈련된 모델을 사용할지 여부 선택 사항 유효값: 기본 값: |
algorithm |
의미 체계 분할에 사용할 알고리즘 선택 사항 유효한 값:
기본 값: |
데이터 하이퍼파라미터
파라미터 이름 | 설명 |
---|---|
num_classes |
분할할 클래스 수 필수 유효한 값: 2 ≤ 양수 ≤ 254 |
num_training_samples |
훈련 데이터의 샘플 수. 이 알고리즘은 이 값을 사용하여 학습률 스케줄러를 설정합니다. 필수 유효한 값: 양수 |
base_size |
자르기 전에 이미지 크기를 재조정하는 방법을 정의합니다. 긴 크기의 길이는 0.5~2.0 사이의 난수를 곱하는 선택 사항 유효한 값: 양수 > 16 기본값: 520 |
crop_size |
훈련 중 입력 이미지의 이미지 크기. 선택 사항 유효한 값: 양수 > 16 기본값: 240 |
훈련 파라미터
파라미터 이름 | 설명 |
---|---|
early_stopping |
훈련 중 조기 중지 로직 사용 여부 선택 사항 유효값: 기본 값: |
early_stopping_min_epochs |
실행해야 하는 최소 epoch 수 선택 사항 유효한 값: 정수 기본값: 5 |
early_stopping_patience |
알고리즘이 조기 중지를 강제하기 전에 성능 저하에 대한 내결함성을 충족하는 epoch 수 선택 사항 유효한 값: 정수 기본값: 4 |
early_stopping_tolerance |
훈련 작업 mIOU에서 점수의 상대적 개선이 이 값보다 작은 경우 조기 중지는 해당 epoch가 개선되지 않았다고 간주합니다. 선택 사항 유효한 값: 0 ≤ 부동 소수점 ≤ 1 기본 값: 0.0 |
epochs |
훈련할 epoch 수 선택 사항 유효한 값: 양수 기본값: 10 |
gamma1 |
선택 사항 유효한 값: 0 ≤ 부동 소수점 ≤ 1 기본 값: 0.9 |
gamma2 |
선택 사항 유효한 값: 0 ≤ 부동 소수점 ≤ 1 기본 값: 0.9 |
learning_rate |
초기 학습률. 선택 사항 유효한 값: 0 < 부동 소수점 ≤ 1 기본값: 0.001 |
lr_scheduler |
시간에 따른 감소를 제어하는 학습률 일정의 셰이프(모양) 선택 사항 유효한 값:
기본 값: |
lr_scheduler_factor |
선택 사항 유효한 값: 0 ≤ 부동 소수점 ≤ 1 기본값: 0.1 |
lr_scheduler_step |
유효한 값: 문자열 기본값: (사용 시 값이 필요하므로 기본값은 없습니다.) |
mini_batch_size |
교육용 배치 크기. 선택 사항 유효한 값: 양수 기본값: 16 |
momentum |
선택 사항 유효한 값: 0 < 부동 소수점 ≤ 1 기본 값: 0.9 |
optimizer |
옵티마이저 유형. 옵티마이저에 대한 자세한 내용을 보려면 해당 링크를 선택하십시오.
선택 사항 유효한 값: 기본 값: |
syncbn |
선택 사항 유효값: 기본 값: |
validation_mini_batch_size |
검증용 배치 크기.
선택 사항 유효한 값: 양수 기본값: 16 |
weight_decay |
선택 사항 유효한 값: 0 < 부동 소수점 < 1 기본값: 0.0001 |