기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
모델 패키지를 사용하여 모델 생성
모델 패키지를 사용하여 호스팅 엔드포인트 생성 또는 배치 변환 작업 실행을 통해 실시간 추론을 얻는 데 사용할 수 있는 배포 가능한 모델을 생성합니다. Amazon SageMaker 콘솔, 하위 수준 SageMaker API () 또는 Amazon Python SageMaker
모델 패키지를 사용하여 모델 생성(콘솔)
모델 패키지에서 배포 가능한 모델을 생성하려면(콘솔)
-
https://console.aws.amazon.com/sagemaker/ 에서 콘솔을 엽니다. SageMaker
-
모델 패키지를 선택합니다.
-
내 모델 패키지 탭의 목록에서 직접 생성한 모델 패키지를 선택하거나 AWS Marketplace 구독 탭에서 구독한 모델 패키지를 선택합니다.
-
Create model(모델 생성)을 선택합니다.
-
모델 이름에 모델의 이름을 입력합니다.
-
IAM 역할의 경우, 사용자 대신 다른 서비스를 호출하는 데 필요한 권한이 있는 IAM 역할을 선택하거나, 새 역할 생성을 선택하여
AmazonSageMakerFullAccess
관리형 정책이 연결된 역할을 생성할 수 SageMaker 있도록 합니다. 자세한 내용은 SageMaker 실행 역할을 사용하는 방법을 참조하세요. -
VPC에서는 모델이 액세스하도록 허용하려는 Amazon VPC를 선택하세요. 자세한 정보는 SageMaker 호스팅 엔드포인트에 Amazon의 리소스에 대한 액세스 권한 부여 VPC을 참조하세요.
-
컨테이너 입력 옵션 및 모델 패키지 선택은 기본값을 그대로 둡니다.
-
환경 변수의 경우에는 모델 컨테이너에 전달하려는 환경 변수의 이름 및 값을 입력합니다.
-
태그에 모델을 관리하기 위한 태그를 하나 이상 지정합니다. 각 태그는 키와 값(선택 사항)으로 구성됩니다. 태그 키는 리소스마다 고유해야 합니다.
-
Create model(모델 생성)을 선택합니다.
배포 가능한 모델을 생성한 후에는 해당 모델을 사용하여 실시간 추론을 위한 엔드포인트를 설정하거나 전체 데이터 세트에 대한 추론을 얻기 위한 배치 변환 작업을 생성할 수 있습니다. 에서 SageMaker 엔드포인트를 호스팅하는 방법에 대한 자세한 내용은 추론을 위한 모델 배포를 참조하십시오.
모델 패키지를 사용하여 모델 생성(API)
모델 패키지를 사용하여 SageMaker API를 사용하여 배포 가능한 모델을 생성하려면 모델 패키지의 이름 또는 Amazon 리소스 이름 (ARN) 을 API에 전달하는 ContainerDefinition
객체의 ModelPackageName
필드로 지정하십시오. CreateModel
배포 가능한 모델을 생성한 후에는 해당 모델을 사용하여 실시간 추론을 위한 엔드포인트를 설정하거나 전체 데이터 세트에 대한 추론을 얻기 위한 배치 변환 작업을 생성할 수 있습니다. 의 호스팅된 엔드포인트에 대한 자세한 내용은 추론을 위한 SageMaker 모델 배포를 참조하십시오.
모델 패키지를 사용하여 모델 생성 (Amazon SageMaker Python SDK )
모델 패키지를 사용하여 SageMaker Python SDK를 사용하여 배포 가능한 모델을 만들려면 ModelPackage
객체를 초기화하고 모델 패키지의 Amazon 리소스 이름 (ARN) 을 인수로 전달하십시오. model_package_arn
예:
from sagemaker import ModelPackage model = ModelPackage(role='SageMakerRole', model_package_arn='training-job-scikit-decision-trees-1542660466-6f92', sagemaker_session=sagemaker_session)
배포 가능한 모델을 생성한 후에는 해당 모델을 사용하여 실시간 추론을 위한 엔드포인트를 설정하거나 전체 데이터 세트에 대한 추론을 얻기 위한 배치 변환 작업을 생성할 수 있습니다. 에서 SageMaker 엔드포인트를 호스팅하는 방법에 대한 자세한 내용은 추론을 위한 모델 배포를 참조하십시오.