Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Rückschlüsse von einem bereitgestellten Service anfordern (Amazon SageMaker SDK)
Verwenden Sie die folgenden Codebeispiele, um Rückschlüsse von Ihrem bereitgestellten Dienst anzufordern, die auf dem Framework basieren, das Sie zum Trainieren Ihres Modells verwendet haben. Die Codebeispiele für die verschiedenen Frameworks sind ähnlich. Der Hauptunterschied besteht darin, dass der Inhaltstyp TensorFlow erfordertapplication/json
.
PyTorch und MXNet
Wenn Sie PyTorch v1.4 oder höher oder MXNet1.7.0 oder höher verwenden und einen SageMaker Amazon-Endpunkt habenInService
, können Sie Inferenzanfragen mit dem predictor
Paket von for Python stellen. SageMaker SDK
Anmerkung
Das API variiert je SageMaker SDK nach Python-Version:
-
Verwenden Sie für Version 1.x die Option
RealTimePredictor
und Predict
API. -
Verwenden Sie für Version 2.x die
Predictor
und die. Predict
API
Das folgende Codebeispiel zeigt, wie Sie diese verwenden, APIs um ein Bild zur Inferenz zu senden:
TensorFlow
Das folgende Codebeispiel zeigt, wie SageMaker Python verwendet wird SDKAPI, um ein Bild zur Inferenz zu senden:
from sagemaker.predictor import Predictor from PIL import Image import numpy as np import json endpoint =
'insert the name of your endpoint here'
# Read image into memory image = Image.open(input_file) batch_size = 1 image = np.asarray(image.resize((224, 224))) image = image / 128 - 1 image = np.concatenate([image[np.newaxis, :, :]] * batch_size) body = json.dumps({"instances": image.tolist()}) predictor = Predictor(endpoint) inference_response = predictor.predict(data=body) print(inference_response)