Rückschlüsse von einem bereitgestellten Service anfordern (Amazon SageMaker SDK) - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Rückschlüsse von einem bereitgestellten Service anfordern (Amazon SageMaker SDK)

Verwenden Sie die folgenden Codebeispiele, um Rückschlüsse von Ihrem bereitgestellten Dienst anzufordern, die auf dem Framework basieren, das Sie zum Trainieren Ihres Modells verwendet haben. Die Codebeispiele für die verschiedenen Frameworks sind ähnlich. Der Hauptunterschied besteht darin, dass der Inhaltstyp TensorFlow erfordertapplication/json.

PyTorch und MXNet

Wenn Sie PyTorch v1.4 oder höher oder MXNet1.7.0 oder höher verwenden und einen SageMaker Amazon-Endpunkt habenInService, können Sie Inferenzanfragen mit dem predictor Paket von for Python stellen. SageMaker SDK

Anmerkung

Das API variiert je SageMaker SDK nach Python-Version:

Das folgende Codebeispiel zeigt, wie Sie diese verwenden, APIs um ein Bild zur Inferenz zu senden:

SageMaker Python SDK v1.x
from sagemaker.predictor import RealTimePredictor endpoint = 'insert name of your endpoint here' # Read image into memory payload = None with open("image.jpg", 'rb') as f: payload = f.read() predictor = RealTimePredictor(endpoint=endpoint, content_type='application/x-image') inference_response = predictor.predict(data=payload) print (inference_response)
SageMaker Python SDK v2.x
from sagemaker.predictor import Predictor endpoint = 'insert name of your endpoint here' # Read image into memory payload = None with open("image.jpg", 'rb') as f: payload = f.read() predictor = Predictor(endpoint) inference_response = predictor.predict(data=payload) print (inference_response)

TensorFlow

Das folgende Codebeispiel zeigt, wie SageMaker Python verwendet wird SDKAPI, um ein Bild zur Inferenz zu senden:

from sagemaker.predictor import Predictor from PIL import Image import numpy as np import json endpoint = 'insert the name of your endpoint here' # Read image into memory image = Image.open(input_file) batch_size = 1 image = np.asarray(image.resize((224, 224))) image = image / 128 - 1 image = np.concatenate([image[np.newaxis, :, :]] * batch_size) body = json.dumps({"instances": image.tolist()}) predictor = Predictor(endpoint) inference_response = predictor.predict(data=body) print(inference_response)