기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
클라우드 인스턴스
Amazon SageMaker Neo는 TensorFlow,, PyTorch MXnet 등과 같은 인기 있는 기계 학습 프레임워크에 대한 컴파일 지원을 제공합니다. 컴파일된 모델을 클라우드 인스턴스와 Inferentia 인스턴스에 배포할 수 있습니다. AWS 지원되는 프레임워크의 전체 목록은 지원되는 인스턴스 유형 및 프레임워크를 참조하세요.
SageMaker 콘솔 또는 Python용 SageMaker SDK를 통해 세 가지 방법 중 하나로 모델을 컴파일할 수 있습니다. AWS CLI자세한 내용은 Neo를 이용한 모델 컴파일을 참조하세요. 컴파일된 모델 아티팩트는 컴파일 작업 중에 지정한 Amazon S3 버킷 URI에 저장됩니다. SageMaker Python용 SDK, AWS SDK for Python (Boto3) AWS CLI, 또는 콘솔을 사용하여 컴파일된 모델을 클라우드 인스턴스 및 AWS Inferentia 인스턴스에 배포할 수 있습니다. AWS
콘솔 또는 Boto3를 사용하여 AWS CLI모델을 배포하는 경우 기본 컨테이너에 대한 Docker 이미지 Amazon ECR URI를 선택해야 합니다. Amazon ECR URI 목록은 Neo 추론 컨테이너 이미지를 참조하세요.