기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
를 사용한 자동 모델 튜닝 SageMaker
Amazon SageMaker 자동 모델 튜닝(AMT)은 데이터 세트에서 많은 훈련 작업을 실행하여 모델의 최적 버전을 찾습니다. Amazon SageMaker 자동 모델 튜닝(AMT)은 하이퍼파라미터 튜닝이라고도 합니다. 이를 위해 는 지정한 하이퍼파라미터의 알고리즘과 범위를 AMT 사용합니다. 그 다음에 선택한 지표로 측정된 값에 따라 최적의 성능을 보여준 모델을 생성하는 하이퍼파라미터 값을 선택합니다.
예를 들어 마케팅 데이터 세트에서 바이너리 분류 문제를 실행합니다. 목표는 XGBoost Amazon 알고리즘 SageMaker 모델을 훈련하여 알고리즘의 곡선(AUC) 지표 아래 영역을 최대화하는 것입니다. 최고의 모델을 훈련시킬 수 있는 eta
, alpha
, min_child_weight
, max_depth
하이퍼파라미터 값을 찾아야 합니다. 이러한 하이퍼파라미터의 값의 범위를 지정합니다. 그런 다음 하이 SageMaker 퍼파라미터 튜닝은 범위 내에서 검색하여 가장 높은 를 가진 모델을 생성하는 훈련 작업을 생성하는 조합을 찾습니다AUC. 리소스를 보존하거나 특정 모델 품질 기대치를 충족하려면 기준이 충족된 후 튜닝을 중지하도록 완료 기준을 설정합니다.
기본 제공 알고리즘, 사용자 지정 알고리즘 또는 기계 학습 프레임워크용 SageMaker 사전 구축 컨테이너와 함께 를 사용할 SageMaker AMT 수 있습니다.
SageMaker AMT 는 Amazon EC2 Spot 인스턴스를 사용하여 훈련 작업을 실행할 때 비용을 최적화할 수 있습니다. 자세한 내용은 Amazon의 관리형 스팟 훈련 SageMaker 단원을 참조하십시오.
하이퍼파라미터 튜닝을 사용하기 전에 다음을 포함한 기계 학습 문제를 잘 파악해야 합니다.
-
데이터 세트
-
훈련에 필요한 알고리즘 유형에 대한 이해
-
성공 측정 방법에 대한 명확한 파악
데이터 세트와 알고리즘이 한 번 이상 작동하고 훈련 작업을 성공적으로 실행하도록 데이터 세트 SageMaker 와 알고리즘을 준비합니다. 훈련 작업을 설정 및 실행하는 자세한 내용은 Amazon 설정 가이드 SageMaker 단원을 참조하세요.