Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.
Utilizza i seguenti esempi di codice per richiedere inferenze dal servizio distribuito in base al framework utilizzato per addestrare il modello. Gli esempi di codice per i diversi framework sono simili. La differenza principale è che TensorFlow richiede application/json
come tipo di contenuto.
PyTorch e MXNet
Se utilizzi la versione PyTorch 1.4 o successiva o la versione MXNet 1.7.0 o successiva e disponi di un endpoint Amazon SageMaker AIInService
, puoi effettuare richieste di inferenza utilizzando il predictor
pacchetto dell'SDK AI SageMaker per Python.
Nota
L'API varia in base alla versione SageMaker AI SDK per Python:
-
Per la versione 1.x, utilizza l'API
RealTimePredictor
e Predict
.
Il seguente esempio di codice mostra come utilizzarli APIs per inviare un'immagine per l'inferenza:
from sagemaker.predictor import RealTimePredictor
endpoint = 'insert name of your endpoint here'
# Read image into memory
payload = None
with open("image.jpg", 'rb') as f:
payload = f.read()
predictor = RealTimePredictor(endpoint=endpoint, content_type='application/x-image')
inference_response = predictor.predict(data=payload)
print (inference_response)
TensorFlow
Il seguente esempio di codice mostra come utilizzare l'API SageMaker Python SDK per inviare un'immagine per l'inferenza:
from sagemaker.predictor import Predictor
from PIL import Image
import numpy as np
import json
endpoint = 'insert the name of your endpoint here'
# Read image into memory
image = Image.open(input_file)
batch_size = 1
image = np.asarray(image.resize((224, 224)))
image = image / 128 - 1
image = np.concatenate([image[np.newaxis, :, :]] * batch_size)
body = json.dumps({"instances": image.tolist()})
predictor = Predictor(endpoint)
inference_response = predictor.predict(data=body)
print(inference_response)