를 사용하여 자동 모델 튜닝을 수행하십시오. SageMaker - 아마존 SageMaker

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

를 사용하여 자동 모델 튜닝을 수행하십시오. SageMaker

Amazon SageMaker 자동 모델 조정 (AMT) 은 데이터세트에서 많은 학습 작업을 실행하여 모델의 최적 버전을 찾습니다. Amazon SageMaker 자동 모델 조정 (AMT) 은 하이퍼파라미터 조정이라고도 합니다. 이를 위해 는 지정한 하이퍼파라미터의 알고리즘과 범위를 AMT 사용합니다. 그 다음에 선택한 지표로 측정된 값에 따라 최적의 성능을 보여준 모델을 생성하는 하이퍼파라미터 값을 선택합니다.

마케팅 데이터셋에서 이진 분류 문제를 실행하는 경우를 예로 들 수 있습니다. 목표는 아마존에서 XGBoost 알고리즘 사용 SageMaker 모델을 학습시켜 알고리즘의 곡선 (AUC) 지표 아래 영역을 최대화하는 것입니다. 최고의 모델을 훈련시킬 수 있는 eta, alpha, min_child_weight, max_depth 하이퍼파라미터 값을 찾아야 합니다. 이러한 하이퍼파라미터의 값의 범위를 지정합니다. 그런 다음 SageMaker 하이퍼파라미터 튜닝은 범위 내에서 검색하여 가장 높은 AUC 값을 가진 모델을 생성하는 학습 작업을 생성하는 조합을 찾습니다. 리소스를 절약하거나 특정 모델 품질 기대치를 충족하려면 기준을 충족한 후에 튜닝을 중단하도록 완료 기준을 설정하십시오.

내장 알고리즘, 사용자 지정 알고리즘 또는 기계 학습 프레임워크용으로 SageMaker 사전 구축된 SageMaker AMT 컨테이너와 함께 사용할 수 있습니다.

SageMaker AMTAmazon EC2 Spot 인스턴스를 사용하여 교육 작업을 실행할 때 비용을 최적화할 수 있습니다. 자세한 내용은 Amazon에서 관리형 스팟 교육 사용하기 SageMaker 단원을 참조하십시오.

하이퍼파라미터 튜닝을 사용하기 전에 다음을 포함한 기계 학습 문제를 잘 파악해야 합니다.

  • 데이터 세트

  • 훈련에 필요한 알고리즘 유형에 대한 이해

  • 성공 측정 방법에 대한 명확한 파악

데이터세트와 알고리즘이 제대로 SageMaker 작동하고 교육 작업을 한 번 이상 성공적으로 실행할 수 있도록 준비하십시오. 훈련 작업을 설정 및 실행하는 자세한 내용은 Amazon 설정 가이드 SageMaker 단원을 참조하세요.