배포된 서비스에서 추론 요청(Amazon SageMaker SDK) - Amazon SageMaker

기계 번역으로 제공되는 번역입니다. 제공된 번역과 원본 영어의 내용이 상충하는 경우에는 영어 버전이 우선합니다.

배포된 서비스에서 추론 요청(Amazon SageMaker SDK)

다음과 같은 코드 예제를 사용하여 모델 훈련에 사용한 프레임워크를 기반으로 배포된 서비스로부터 추론을 요청할 수 있습니다. 각 프레임워크의 코드 예제는 비슷합니다. 주요 차이점은 가 콘텐츠 유형application/json으로 를 TensorFlow 필요로 한다는 것입니다.

PyTorch 및 MXNet

PyTorch v1.4 이상 또는 MXNet 1.7.0 이상을 사용 중이고 Amazon SageMaker 엔드포인트가 있는 경우 Python SageMaker SDK용 의 predictor 패키지를 사용하여 추론 요청을 InService할 수 있습니다.

참고

는 for Python 버전에 SageMaker SDK 따라 API 다릅니다.

다음 코드 예제는 이러한 를 사용하여 추론APIs을 위해 이미지를 전송하는 방법을 보여줍니다.

SageMaker Python SDK v1.x
from sagemaker.predictor import RealTimePredictor endpoint = 'insert name of your endpoint here' # Read image into memory payload = None with open("image.jpg", 'rb') as f: payload = f.read() predictor = RealTimePredictor(endpoint=endpoint, content_type='application/x-image') inference_response = predictor.predict(data=payload) print (inference_response)
SageMaker Python SDK v2.x
from sagemaker.predictor import Predictor endpoint = 'insert name of your endpoint here' # Read image into memory payload = None with open("image.jpg", 'rb') as f: payload = f.read() predictor = Predictor(endpoint) inference_response = predictor.predict(data=payload) print (inference_response)

TensorFlow

다음 코드 예제는 SageMaker Python을 사용하여 추론을 위해 이미지를 SDK API 전송하는 방법을 보여줍니다.

from sagemaker.predictor import Predictor from PIL import Image import numpy as np import json endpoint = 'insert the name of your endpoint here' # Read image into memory image = Image.open(input_file) batch_size = 1 image = np.asarray(image.resize((224, 224))) image = image / 128 - 1 image = np.concatenate([image[np.newaxis, :, :]] * batch_size) body = json.dumps({"instances": image.tolist()}) predictor = Predictor(endpoint) inference_response = predictor.predict(data=body) print(inference_response)