쿠키 기본 설정 선택

당사는 사이트와 서비스를 제공하는 데 필요한 필수 쿠키 및 유사한 도구를 사용합니다. 고객이 사이트를 어떻게 사용하는지 파악하고 개선할 수 있도록 성능 쿠키를 사용해 익명의 통계를 수집합니다. 필수 쿠키는 비활성화할 수 없지만 '사용자 지정' 또는 ‘거부’를 클릭하여 성능 쿠키를 거부할 수 있습니다.

사용자가 동의하는 경우 AWS와 승인된 제3자도 쿠키를 사용하여 유용한 사이트 기능을 제공하고, 사용자의 기본 설정을 기억하고, 관련 광고를 비롯한 관련 콘텐츠를 표시합니다. 필수가 아닌 모든 쿠키를 수락하거나 거부하려면 ‘수락’ 또는 ‘거부’를 클릭하세요. 더 자세한 내용을 선택하려면 ‘사용자 정의’를 클릭하세요.

를 사용하여 컴파일된 모델 배포 AWS CLI

포커스 모드
를 사용하여 컴파일된 모델 배포 AWS CLI - Amazon SageMaker AI

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

모델이 AWS SDK for Python (Boto3) AWS CLI또는 Amazon SageMaker AI 콘솔을 사용하여 컴파일된 경우 사전 조건 섹션을 충족해야 합니다. 아래 단계에 따라 AWS CLI를 사용하여 SageMaker NEO 컴파일 모델을 생성하고 배포하세요.

모델 배포

사전 조건을 충족한 후에는 , create-model create-enpoint-configcreate-endpoint AWS CLI 명령을 사용합니다. 다음 예시는 이러한 명령을 사용하여 Neo로 컴파일된 모델을 배포하는 방법을 보여줍니다.

모델 생성

Neo 추론 컨테이너 이미지에서 추론 이미지 URI를 선택한 다음 create-model API를 사용하여 SageMaker AI 모델을 생성합니다. 두 단계를 이용해 할 수 있습니다.

  1. create_model.json 파일을 생성합니다. 파일 내에서 모델 이름, 이미지 URI, Amazon S3 버킷의 model.tar.gz 파일 경로 및 SageMaker AI 실행 역할을 지정합니다.

    { "ModelName": "insert model name", "PrimaryContainer": { "Image": "insert the ECR Image URI", "ModelDataUrl": "insert S3 archive URL", "Environment": {"See details below"} }, "ExecutionRoleArn": "ARN for AmazonSageMaker-ExecutionRole" }

    SageMaker AI를 사용하여 모델을 훈련시킨 경우 다음 환경 변수를 지정합니다.

    "Environment": { "SAGEMAKER_SUBMIT_DIRECTORY" : "[Full S3 path for *.tar.gz file containing the training script]" }

    SageMaker AI를 사용하여 모델을 훈련하지 않은 경우 다음 환경 변수를 지정합니다.

    MXNet and PyTorch
    "Environment": { "SAGEMAKER_PROGRAM": "inference.py", "SAGEMAKER_SUBMIT_DIRECTORY": "/opt/ml/model/code", "SAGEMAKER_CONTAINER_LOG_LEVEL": "20", "SAGEMAKER_REGION": "insert your region", "MMS_DEFAULT_RESPONSE_TIMEOUT": "500" }
    TensorFlow
    "Environment": { "SAGEMAKER_PROGRAM": "inference.py", "SAGEMAKER_SUBMIT_DIRECTORY": "/opt/ml/model/code", "SAGEMAKER_CONTAINER_LOG_LEVEL": "20", "SAGEMAKER_REGION": "insert your region" }
    "Environment": { "SAGEMAKER_PROGRAM": "inference.py", "SAGEMAKER_SUBMIT_DIRECTORY": "/opt/ml/model/code", "SAGEMAKER_CONTAINER_LOG_LEVEL": "20", "SAGEMAKER_REGION": "insert your region", "MMS_DEFAULT_RESPONSE_TIMEOUT": "500" }
    참고

    AmazonSageMakerFullAccessAmazonS3ReadOnlyAccess 정책은 AmazonSageMaker-ExecutionRole IAM 역할에 연결되어야 합니다.

  2. 다음 명령 실행:

    aws sagemaker create-model --cli-input-json file://create_model.json

    create-model API의 전체 구문은 create-model 섹션을 참조하세요.

엔드포인트 구성 생성

SageMaker AI 모델을 생성한 후 create-endpoint-config API를 사용하여 엔드포인트 구성을 생성합니다. 이렇게 하려면 엔드포인트 구성 사양이 포함된 JSON 파일을 생성하세요. 예를 들어, 다음 코드 템플릿을 사용하여 이를 create_config.json으로 저장할 수 있습니다.

{ "EndpointConfigName": "<provide your endpoint config name>", "ProductionVariants": [ { "VariantName": "<provide your variant name>", "ModelName": "my-sagemaker-model", "InitialInstanceCount": 1, "InstanceType": "<provide your instance type here>", "InitialVariantWeight": 1.0 } ] }

이제 다음 AWS CLI 명령을 실행하여 엔드포인트 구성을 생성합니다.

aws sagemaker create-endpoint-config --cli-input-json file://create_config.json

create-endpoint-config API의 전체 구문은 create-endpoint-config 섹션을 참조하세요.

엔드포인트 생성

엔드포인트 구성을 생성한 후 create-endpoint API를 사용하여 엔드포인트를 생성합니다.

aws sagemaker create-endpoint --endpoint-name '<provide your endpoint name>' --endpoint-config-name '<insert your endpoint config name>'

create-endpoint API의 전체 구문은 create-endpoint 섹션을 참조하세요.

이 페이지에서

프라이버시사이트 이용 약관쿠키 기본 설정
© 2025, Amazon Web Services, Inc. 또는 계열사. All rights reserved.