기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
이미지 분류 하이퍼파라미터
하이퍼파라미터는 기계 학습 모델이 학습을 시작하기 전에 설정되는 파라미터입니다. 다음 하이퍼파라미터는 Amazon SageMaker AI 내장 이미지 분류 알고리즘에서 지원됩니다. 이미지 분류 하이퍼파라미터 튜닝에 대한 자세한 내용은 이미지 분류 모델 튜닝 단원을 참조하세요.
파라미터 이름 | 설명 |
---|---|
num_classes |
출력 클래스의 수. 이 파라미터는 네트워크 출력의 차원을 정의하고 데이터세트의 클래스 수로 설정됩니다. 멀티 클래스 분류 외에도 다중 레이블 분류도 지원됩니다. 보강된 매니페스트 파일을 사용하여 다중 레이블 분류 작업을 수행하는 방법에 대한 자세한 내용은 Image Classification 알고리즘의 입력/출력 인터페이스 단원을 참조하세요. 필수 유효한 값: 양수 |
num_training_samples |
입력 데이터 세트의 훈련 예제 수. 이 값과 훈련 세트의 샘플 수가 일치하지 않는 경우 필수 유효한 값: 양수 |
augmentation_type |
데이터 증강 유형. 입력 이미지는 아래 지정된 여러 방법으로 증강될 수 있습니다.
선택 사항 유효한 값: 기본값: 기본값 없음 |
beta_1 |
선택 사항 유효한 값: 부동 소수점. 범위: [0, 1]. 기본 값: 0.9 |
beta_2 |
선택 사항 유효한 값: 부동 소수점. 범위: [0, 1]. 기본값: 0.999 |
checkpoint_frequency |
모델 파라미터를 저장하는 기간(epoch 횟수). 모든 체크포인트 파일은 최종 모델 파일 “model.tar.gz”의 일부로 저장되고 지정된 모델 위치로 S3에 업로드됩니다. 이렇게 하면 훈련 중에 저장된 체크포인트 수에 비례하여 모델 파일의 크기가 증가합니다. 선택 사항 유효한 값: 기본값: 없음(최고의 유효성 검사 정확도를 가진 epoch에서 체크포인트 저장) |
early_stopping |
선택 사항 유효한 값: 기본 값: |
early_stopping_min_epochs |
조기 중지 로직을 호출하기 전에 실행해야 할 최소 epoch 수. 선택 사항 유효한 값: 양수 기본값: 10 |
early_stopping_patience |
상대적 지표에서 개선 사항이 없는 경우 훈련 완료 전에 대기하는 epoch의 수. 선택 사항 유효한 값: 양수 기본값: 5 |
early_stopping_tolerance |
정확도 검증 지표의 개선을 측정하는 상대 공차. 이전 최적 정확도로 나눈 정확도의 개선율이 설정된 선택 사항 유효한 값: 0 ≤ 부동 소수점 ≤ 1 기본 값: 0.0 |
epochs |
훈련 epoch의 수. 선택 사항 유효한 값: 양수 기본값: 30 |
eps |
선택 사항 유효한 값: 부동 소수점. 범위: [0, 1]. 기본값: 1e-8 |
gamma |
선택 사항 유효한 값: 부동 소수점. 범위: [0, 1]. 기본 값: 0.9 |
image_shape |
입력 이미지 차원으로 네트워크의 입력 계층과 동일한 크기입니다. 형식은 ' 훈련의 경우 어떤 차원에서든 입력 이미지가 이 파라미터보다 작으면 훈련이 실패합니다. 이미지가 더 크면 이 파라미터로 지정된 영역만큼 이미지의 일부가 잘립니다. 추론 시 입력 이미지는 훈련 중에 사용된 선택 사항 유효한 값: 문자열 기본값: ‘3,224,224’ |
kv_store |
분산 훈련 도중 가중치 업데이트 동기화 모드. 가중치 업데이트는 머신에 걸쳐 동기식 또는 비동기식으로 업데이트될 수 있습니다. 동기식 업데이트는 일반적으로 비동기식 업데이트보다 더 높은 정확도를 제공하지만 속도가 느릴 수 있습니다. 자세한 내용은의 분산 교육을 MXNet 참조하세요. 이 파라미터는 단일 머신 훈련에 해당되지 않습니다.
선택 사항 유효한 값: 기본값: 기본값 없음 |
learning_rate |
초기 학습률. 선택 사항 유효한 값: 부동 소수점. 범위: [0, 1]. 기본값: 0.1 |
lr_scheduler_factor |
선택 사항 유효한 값: 부동 소수점. 범위: [0, 1]. 기본값: 0.1 |
lr_scheduler_step |
학습률이 감소하는 epoch. 선택 사항 유효한 값: 문자열 기본값: 기본값 없음 |
mini_batch_size |
훈련용 배치 크기. 단일 시스템 다중GPU 설정에서 각는 선택 사항 유효한 값: 양수 기본 값: 32 |
momentum |
선택 사항 유효한 값: 부동 소수점. 범위: [0, 1]. 기본 값: 0.9 |
multi_label |
각 샘플에 여러 레이블을 할당할 수 있는 다중 레이블 분류에 사용하도록 하는 플래그. 모든 클래스의 평균 정확도가 기록됩니다. 선택 사항 유효한 값: 0 또는 1 기본값: 0 |
num_layers |
네트워크에 대한 계층 수. 이미지 크기가 큰 데이터(예: 224x224 - 유사 ImageNet)의 경우 세트 [18, 34, 50, 101, 152, 200]에서 계층 수를 선택하는 것이 좋습니다. 이미지 크기가 작은 데이터(예: 28x28 -와 같음CIFAR)의 경우 세트 [20, 32, 44, 56, 110]에서 계층 수를 선택하는 것이 좋습니다. 각 세트의 계층 수는 ResNet 종이를 기반으로 합니다. 전이 학습의 경우 계층의 수는 기본 네트워크의 아키텍처를 정의하고 이런 이유로 [18, 34, 50, 101, 152, 200]으로만 선택할 수 있습니다. 선택 사항 유효한 값: [18, 34, 50, 101, 152, 200] 또는 [20, 32, 44, 56, 110]의 양의 정수 기본값: 152 |
optimizer |
옵티마이저 유형. 옵티마이저의 파라미터에 대한 자세한 내용은 MXNet의 섹션을 참조하세요API. 선택 사항 유효한 값:
기본 값: |
precision_dtype |
훈련에 사용되는 가중치의 정밀도. 이 알고리즘은 가중치에 단일 정밀도( 선택 사항 유효한 값: 기본 값: |
resize |
훈련을 위해 크기를 조정한 후 이미지의 가장 짧은 면에 있는 픽셀 수입니다. 이 파라미터가 설정되지 않은 경우 크기 조정 없이 훈련 데이터가 사용됩니다. 훈련 실패를 방지하려면 파라미터가 이미지 콘텐츠 유형을 사용하는 경우 필수 RecordIO 콘텐츠 형식을 사용하는 경우 선택 사항 유효한 값: 양수 기본값: 기본값 없음 |
top_k |
훈련 중 top-k 정확도를 보고합니다. 이 파라미터는 1보다 커야 합니다. top-1 훈련 정확도가 이미 보고된 정기 훈련 정확도와 동일하기 때문입니다. 선택 사항 유효한 값: 1보다 큰 양의 정수. 기본값: 기본값 없음 |
use_pretrained_model |
훈련에 사전 훈련 모델을 사용하도록 하는 플래그. 1로 설정된 경우 해당 계층 수를 가진 사전 훈련 모델이 로드되고 훈련에 사용됩니다. 최상위 FC 계층만이 임의 가중치로 다시 초기화됩니다. 그렇지 않은 경우 네트워크는 처음부터 교육됩니다. 선택 사항 유효한 값: 0 또는 1 기본값: 0 |
use_weighted_loss |
다중 레이블 분류에 가중치 기반 교차 엔트로피 손실을 사용하도록 하는 플래그( 선택 사항 유효한 값: 0 또는 1 기본값: 0 |
weight_decay |
선택 사항 유효한 값: 부동 소수점. 범위: [0, 1]. 기본값: 0.0001 |