기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon SageMaker 추론 추천자는 Amazon SageMaker AI의 기능입니다. SageMaker AI ML 인스턴스에서 로드 테스트 및 모델 튜닝을 자동화하여 프로덕션 환경에서 기계 학습(ML) 모델을 가져오는 데 필요한 시간을 줄입니다. Inference Recommender를 사용하면 최저 비용으로 최고의 성능을 제공하는 실시간 또는 서버리스 추론 엔드포인트에 모델을 배포할 수 있습니다. Inference Recommender를 사용하면 ML 모델 및 워크로드에 가장 적합한 인스턴스 유형과 구성을 선택할 수 있습니다. 인스턴스 수, 컨테이너 파라미터, 모델 최적화, 최대 동시성 및 메모리 크기와 같은 요소를 고려합니다.
Amazon SageMaker Inference Recommender는 작업이 실행되는 동안 사용된 인스턴스에 대해서만 비용을 청구합니다.
작동 방식
Amazon SageMaker 추론 추천자를 사용하려면 SageMaker AI 모델을 생성하거나 모델 아티팩트를 사용하여 SageMaker 모델 레지스트리에 모델을 등록할 수 있습니다. AWS SDK for Python (Boto3) 또는 SageMaker AI 콘솔을 사용하여 다양한 SageMaker AI 엔드포인트 구성에 대한 벤치마킹 작업을 실행합니다. Inference Recommender 작업은 성능 및 리소스 활용 전반에서 메트릭을 수집하고 시각화하여 선택할 엔드포인트 유형 및 구성을 결정하는 데 도움이 됩니다.
시작하는 방법
Amazon SageMaker Inference Recommender를 처음 사용한다면 다음과 같이 할 것을 권장합니다.
-
Amazon SageMaker 추론 추천자를 사용하기 위한 사전 조건 섹션을 자세히 읽고 Amazon SageMaker Inference Recommender 사용 요구 사항을 충족했는지 확인합니다.
-
Amazon SageMaker 추론 추천자를 사용한 추천 작업 섹션을 자세히 읽고 첫 번째 Inference Recommender 권장 작업을 시작합니다.
-
Amazon SageMaker Inference Recommender 입문용 Jupyter Notebook
예제를 살펴보거나 다음 섹션에서 예제 노트북을 확인합니다.
예제 노트북
다음 예제 Jupyter Notebook은 Inference Recommender의 여러 사용 사례에 대한 워크플로를 처리하는 데 도움이 될 수 있습니다.
-
TensorFlow 모델을 벤치마크하는 입문용 노트북은 SageMaker Inference Recommender TensorFlow
노트북에서 확인하세요. -
HuggingFace 모델을 벤치마킹하려면 HuggingFace용 SageMaker Inference Recommender
를 참조하세요. -
XGBoost 모델을 벤치마킹하려면 XGBoost용 SageMaker Inference Recommender
를 참조하세요. -
Inference Recommender 작업에 대한 CloudWatch 지표는 SageMaker Inference Recommender CloudWatch 지표
노트북에서 확인하세요.