기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.
Amazon SageMaker Neo는 TensorFlow, PyTorch, MXNet 등 인기 있는 기계 학습 프레임워크를 위한 컴파일을 지원합니다. 컴파일된 모델을 클라우드 인스턴스 및 AWS Inferentia 인스턴스에 배포할 수 있습니다. 지원되는 프레임워크의 전체 목록은 지원되는 인스턴스 유형 및 프레임워크를 참조하세요.
AWS CLI, SageMaker AI 콘솔 또는 Python용 SageMaker AI SDK의 세 가지 방법 중 하나로 모델을 컴파일할 수 있습니다. 자세한 내용은 Neo를 이용한 모델 컴파일을 참조하세요. 컴파일된 모델 아티팩트는 컴파일 작업 중에 지정한 Amazon S3 버킷 URI에 저장됩니다. Python AWS SDK for Python (Boto3) AWS CLI, 또는 AWS 콘솔용 SageMaker AI SDK를 사용하여 컴파일된 모델을 클라우드 인스턴스 및 AWS Inferentia 인스턴스에 배포할 수 있습니다.
, 콘솔 또는 Boto3 AWS CLI를 사용하여 모델을 배포하는 경우 기본 컨테이너에 대해 Docker 이미지 Amazon ECR URI를 선택해야 합니다. Amazon ECR URI 목록은 Neo 추론 컨테이너 이미지를 참조하세요.