기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
자동 모델 튜닝은 하이퍼파라미터 튜닝이라고도 하며, 훈련 데이터세트 및 검증 데이터세트에 대한 다양한 하이퍼파라미터를 테스트하는 여러 작업을 실행하여 최적의 모델 버전을 찾는 기능입니다. 모델 튜닝은 다음 하이퍼파라미터에 초점을 맞춥니다.
참고
학습 목표 함수 및 평가 지표는 둘 다 분류 작업 유형(레이블 열에 표시된 고유 정수의 개수로 결정됨)에 따라 자동으로 할당됩니다. 자세한 내용은 TabTransformer 하이퍼파라미터 섹션을 참조하세요.
-
모델 훈련 중에 최적화하기 위한 학습 목표 함수
-
검증 중에 모델 성능을 평가하는 데 사용되는 평가 지표
-
모델을 자동 튜닝할 때 사용할 하이퍼파라미터 세트와 각 값의 범위
자동 모델 튜닝은 선택한 하이퍼파라미터를 검색하여 선택된 평가 지표를 최적화하는 모델을 만드는 값 조합을 찾습니다.
참고
TabTransformer의 자동 모델 튜닝은 SageMaker AI 콘솔이 아닌 Amazon SageMaker SageMaker AI SDKs에서만 사용할 수 있습니다.
모델 튜닝에 대한 추가 정보는 SageMaker AI를 사용한 자동 모델 튜닝 섹션을 참조하세요.
TabTransformer 알고리즘으로 계산한 평가 지표
SageMaker AI TabTransformer 알고리즘은 모델 검증에 사용할 다음 지표를 계산합니다. 평가 지표는 분류 작업 유형(레이블 열에 표시된 고유 정수의 개수로 결정됨)에 따라 자동으로 할당됩니다.
지표 이름 | 설명 | 최적화 방향 | Regex 패턴 |
---|---|---|---|
r2 |
r 제곱 | 최대화 | "metrics={'r2': (\\S+)}" |
f1_score |
바이너리 교차 엔트로피 | 최대화 | "metrics={'f1': (\\S+)}" |
accuracy_score |
멀티클래스 교차 엔트로피 | 최대화 | "metrics={'accuracy': (\\S+)}" |
튜닝 가능한 TabTransformer 하이퍼파라미터
다음 하이퍼파라미터를 사용하여 TabTransformer 모델을 튜닝하세요. TabTransformer 평가 지표의 최적화에 가장 큰 영향을 미치는 하이퍼파라미터는 learning_rate
, input_dim
, n_blocks
, attn_dropout
, mlp_dropout
, frac_shared_embed
입니다. 모든 TabTransformer 하이퍼파라미터의 목록은 TabTransformer 하이퍼파라미터를 참조하세요.
파라미터 이름 | 파라미터 유형 | 권장 범위 |
---|---|---|
learning_rate |
ContinuousParameterRanges | 최솟값: 0.001, 최댓값: 0.01 |
input_dim |
CategoricalParameterRanges | [16 , 32 , 64 , 128 , 256 , 512 ] |
n_blocks |
IntegerParameterRanges | 최솟값: 1, 최댓값: 12 |
attn_dropout |
ContinuousParameterRanges | 최솟값: 0.0, 최댓값: 0.8 |
mlp_dropout |
ContinuousParameterRanges | 최솟값: 0.0, 최댓값: 0.8 |
frac_shared_embed |
ContinuousParameterRanges | MinValue: 0.0, MaxValue: 0.5 |